outline

自督导式模型有跨语言的能力



- 中文:DRCD的数据集
- 英文:SQuAD的数据集
在104种语言上进行学习,并在英文上进行微调,结果在中文上效果也比较好。

XTREME Benchmark
只用英文进行微调,在其他剩下的语言中进行测试。

bert可以无视语言的表象,只了解符合背后代表的语义。

看看英文对中文相近的分数算出来,然后取平均值得到MRR,该值越大越好。


语言的信息藏在哪里呢?通过embedding展示,相近的词更接近


英文转化成向量后,并对其进行偏移向量后,能够重构为中文。


可以在英文上测试,并在中文上进行测试。中英文上的embedding是有点差距的。
自督导式模型有跨领域的能力


把DNA的组成替换成字符型的表示形式进行学习

用bert有明显的提升。不仅学到了语义信息,也学到了一些通用的能力,在其他领域也能有较好的性能,

在DNA 蛋白质 音乐上都有所帮助。

pre-trained模型有强化模型的能力

跨语言学习的能力用在语音回答系统。



终极状态:输入是语音,输出也是语音。

光用hubert是不行的,可以通过中间层后再加几层网络:

可以把Hubert的输出 丢给文字的预训练Bert


在人造的资料上训练Bert


通过规则生成一些tokens,并将tokens进行映射,之后再送到网络中进行学习。



- random产生的资料的效果不好
- pair产生资料的效果还是非常明显的
- shuffle产生的资料效果还是可以的

token的序列长度是非常重要的。











![[ 8 种有效方法] 如何在没有备份的情况下恢复 Android 上永久删除的照片?](https://img-blog.csdnimg.cn/direct/8b2d752b89814d5db5ff1410dc314ac9.png)







