序列标注模型的标签体系与结构设计需匹配任务目标,按三步确定类别、标注单元和编码方式;数据对齐须处理subword映射、loss屏蔽无关位置、评估还原至原始粒度。

序列标注模型的标签体系和结构设计,直接决定模型能否准确识别实体边界与类型。选错标签方案,再深的网络也学不准。
标签体系要匹配任务目标,不是越细越好
常见错误是照搬BIO或BIOES却没想清任务需求。比如做简单的人名识别,用BIOES反而增加冗余(E-PER和S-PER在单字人名里本质一样);而做嵌套实体(如“北京市朝阳区”里“北京市”是GPE,“朝阳区”是LOC),标准BIO就表达不了。
建议按三步定标签:
- 列出所有需识别的类别(如PER、ORG、LOC、TIME),并确认是否允许重叠或嵌套
- 判断最小标注单元——是字符级(中文常用)、词级(需高质量分词)、还是子词级(如BERT的WordPiece)
- 选择编码方式:BIO足够时别硬上BIOES;需嵌套就考虑层级标签(如[ORG_start, ORG_end] + [LOC_start, LOC_end])或Span-based建模
数据结构要对齐模型输入,避免隐式错位
训练时最常出问题的是标签序列和token序列长度不一致。尤其用预训练模型(如BERT)时,原始句子切分成subword后,标签必须同步对齐——不能直接把字级标签复制到每个subword上,也不能丢掉[CLS]、[SEP]对应位置的标签占位。
立即学习“Python免费学习笔记(深入)”;
实操要点:
- 对每个原始字符,记录它被映射到哪些subword位置;只给第一个subword保留原标签,其余标为“O”或特殊忽略标记(如-100)
- 标签列表长度必须等于模型实际输入的token数(含[CLS]、[SEP]),缺失位置补“O”,多余部分截断
- 用red">torch.utils.data.Dataset封装时,在__getitem__里完成对齐,别在全局预处理中固化映射关系(否则无法支持动态batch)
损失计算要屏蔽无关位置,防止噪声干扰
模型输出的logits维度是[seq_len, num_labels],但并非每个位置都参与监督。比如[CLS]、[SEP]、padding位、以及被拆分词的后续subword,都不该计入loss。
推荐做法:
- 构造attention_mask同时生成active_mask:把真实token位置标1,其余标0
- 用F.cross_entropy时传入ignore_index=-100,把active_mask为0的位置标签设为-100
- 不做mask直接平均loss,等于让模型为padding位“强行学习”,收敛慢且F1易虚高
评估必须按token对齐还原,不能依赖原始字符串索引
预测结果要回退到原始字符或词粒度才能算准指标。常见陷阱:直接用模型输出的subword级预测去比对原始BIO标签,导致“张/三/丰”被拆成“张/##三/##丰”,预测标签错位一个位置就全判错。
安全做法:
- 保存原始字符到subword的映射表(如{0:[0], 1:[2], 2:[4]}),预测后按首subword取标签,合并同源字符
- 用seqeval库时,确保传入的predictions和labels已对齐到同一粒度(如全为字符级)
- 写自定义评估函数时,先过滤掉-100标签位,再按原始序列顺序比对,不依赖下标数值本身
基本上就这些。标签不是静态配置项,而是任务逻辑、数据预处理、模型结构、评估口径四者的交点。调参前先理清这一环,省下三天debug时间。










