We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
提问时请尽可能提供如下信息:
# 请在此处贴上你的核心代码。 # 请尽量只保留关键部分,不要无脑贴全部代码。
bert = build_transformer_model(config_path, checkpoint_path, model='albert', return_keras_model=False) output=bert.model.output
output1 = GlobalPointer(len(categories), 64, name='output_1')(output) output2 = GlobalPointer(len(categories), 64, name='output_2')(output)
model = Model(bert.input, outputs=[output1, output2]) model.summary()
model.compile( loss={'cls_output':'global_pointer_crossentropy', 'ner_output':global_pointer_crossentropy}, optimizer=Adam(learning_rate), loss_weights={'output_1':1, 'output_2':1} ) data_generator中yield [batch_token_ids,batch_token_ids],[batch_ner_labels1,batch_ner_labels2]
这是基于bert4keras改的一个简单的多任务学习demo,想实现的效果就是多个ner一起训练。想请教苏神一个问题就是,如果我现在有三组同领域下的样本数据,各自标签的定义有交叉有包含也有单独属于各自样本的标签,想做多任务学习的话,要怎么设置才能做到第一组数据训练时只更新它所对应的输出层参数,第二组数据训练时只更新其对应的输出层参数呢,需要对标签做什么处理?换言之,如果是这类问题,是否适合用多任务学习,还是说三组样本分别训练各自的模型更合适呢;希望苏神有时间帮忙解答一下,谢谢。
# 请在此处贴上你的调试输出
不管什么问题,请先尝试自行解决,“万般努力”之下仍然无法解决再来提问。此处请贴上你的努力过程。
The text was updated successfully, but these errors were encountered:
第一组指的是第一个batch,还是batch内的第一个样本?
Sorry, something went wrong.
可能是我描述的有点歧义了,大概就是说,现在有n个相同领域内的数据集,但是每个数据集指定的输出有所不同,拿实体识别举例,比如第一个数据集共包含3类实体,实体1,实体2,实体3,第二个数据集包含5类实体,除了实体1,2,3之外还有实体4和实体5,第三个数据集中的实体又包含三类实体,实体2,实体3,实体4;也就是各自的输出不同但是同属一个领域,这种场景适合用多任务学习么? 第二个问题是:如果可以的话,bert4keras怎么处理这类问题呢,我尝试了一下 yield [batch_token_ids,batch_token_ids],[batch_ner_labels1,batch_ner_labels2] 也就是一条样本数据如果同时有两个任务的标签形式做多任务学习是可以的,但是如果每类数据集只包含自己任务的标签要怎么处理呢,也就是
yield [batch_token_ids,batch_token_ids],[batch_ner_labels1,batch_ner_labels2]
[batch_token_ids1,batch_token_ids1],batch_ner_labels1, [batch_token_ids2,batch_token_ids2],batch_ner_labels2
想要融合进一起学习要如何调整我的训练方式呢
No branches or pull requests
提问时请尽可能提供如下信息:
基本信息
核心代码
bert = build_transformer_model(config_path, checkpoint_path, model='albert', return_keras_model=False)
output=bert.model.output
output1 = GlobalPointer(len(categories), 64, name='output_1')(output)
output2 = GlobalPointer(len(categories), 64, name='output_2')(output)
model = Model(bert.input, outputs=[output1, output2])
model.summary()
model.compile(
loss={'cls_output':'global_pointer_crossentropy', 'ner_output':global_pointer_crossentropy},
optimizer=Adam(learning_rate),
loss_weights={'output_1':1, 'output_2':1}
)
data_generator中yield
[batch_token_ids,batch_token_ids],[batch_ner_labels1,batch_ner_labels2]
这是基于bert4keras改的一个简单的多任务学习demo,想实现的效果就是多个ner一起训练。想请教苏神一个问题就是,如果我现在有三组同领域下的样本数据,各自标签的定义有交叉有包含也有单独属于各自样本的标签,想做多任务学习的话,要怎么设置才能做到第一组数据训练时只更新它所对应的输出层参数,第二组数据训练时只更新其对应的输出层参数呢,需要对标签做什么处理?换言之,如果是这类问题,是否适合用多任务学习,还是说三组样本分别训练各自的模型更合适呢;希望苏神有时间帮忙解答一下,谢谢。
输出信息
# 请在此处贴上你的调试输出
自我尝试
不管什么问题,请先尝试自行解决,“万般努力”之下仍然无法解决再来提问。此处请贴上你的努力过程。
The text was updated successfully, but these errors were encountered: