EMNLP 2021Oral | 拓展你的视野!UCLA提出:地区多样性视觉常识推理
EMNLP 2021Oral | 拓展你的视野!UCLA提出:地区多样性视觉常识推理
作者 | 殷达
殷达:加州大学洛杉矶分校(UCLA)二年级博士生。导师为Prof. Kai-Wei Chang。主要的研究方向为知识驱动的自然语言理解模型。目前已在ACL,EMNLP,NAACL,CIKM等会议以第一作者身份发表文章。
文章相关资源
Paper: https://aclanthology.org/2021.emnlp-main.162/
Code and data: https://github.com/WadeYin9712/GD-VCR
Project page: https://gd-vcr.github.io/
1 前言
我们的文章主要关注在常识知识的地区多样性:由于历史文化因素的影响,在不同地区生活的人们可能对同一事物有着不一样的常识和认知。我们提出了地区多样性视觉常识推理数据集 GD-VCR 去考察模型的表现,并且探究造成这一表现背后的原因。我们很高兴 EMNLP 2021 的最佳论文 (Liu et al., 2021),和杰出论文 (Zhang et al., 2021) 有着和我们非常相似的研究问题。所以非常希望我们的文章能够让大家 从常识知识多样性的视角对人工智能世界通用性的这一问题产生更多的思考。
2 背景
根据维基百科中的定义,常识是人类认知日常场景的所需的基本知识,并且几乎“所有人”都能掌握并运用这种知识。如果我们看来一个女人在聚会上穿着白色婚裙,那么很大概率这个聚会是一个婚礼。随着领域对于常识推理的关注,关于常识的大规模数据集和知识图谱也越来越多。
但是我们如果细细品味维基百科中的定义,其实我们会发现一个问题:有些常识是否真的能够被所有人掌握吗?我们或许能从婚礼的例子中找到一些端倪:在中国的传统婚礼上,可能新娘穿的是红颜色裙子,甚至她的脸也会被红盖头遮住。这对于中国人来说司空见惯,是一种常识。但是这可能对世界其他地区的人十分陌生。
(GD-VCR数据集示例。图为不同地区婚礼图片。)
常识知识其实比所谓的定义范围更广,更加多元!因此,我们的文章提出了一个新数据集, 地区多样性视觉常识推理数据集,Geo-Diverse Visual Commonsense Reasoning (GD-VCR)。我们沿用了视觉常识推理任务VCR的设置进行标注:我们收集了328个来自东亚、南亚、非洲和西方国家电影和电视剧的图片,并基于这些图片设计问题和答案。这些问题和答案会涉及地区多样性的常识知识和对图片内容的深入理解。通过提出这个数据集,我们试图研究以下两个问题:
3 数据集收集和统计信息
数据集收集的主要挑战是要找到合适的图像资源并捕获包含区域特征的场景。我们从 Amazon Mechanical Turk 平台和大学里的语言文化系招募标注人员。我们要求收集的图像中应具有包含标注者比较熟悉的地区中代表性场景。我们进一步建议标注者选择普遍存在但具有跨地区特征的场景,例如婚礼、葬礼、节日、宗教活动等。这些要求不仅可以使我们的 GD-VCR 数据集更具地区多样性,也方便我们后续去做更公平的比较。
(GD-VCR总体统计数据)
GD-VCR 的总体统计数据见表。这边想强调的是,我们计算了每个区域的 OOV 率,也就是出现在 GD-VCR 中但未出现在原始 VCR 训练集中的单词的比率。我们发现在 GD-VCR 中,这四个不同地区 OOV 率彼此接近,并且都很低。这进一步证明 GD-VCR 与原始VCR数据集的词汇分布相似,GD-VCR 的难度并非来自词汇差距。我们还在文中展示了 GD-VCR 中覆盖图像关键字分布。我们统计出总共有693个关键词,展示了 GD-VCR 中场景的多样性。
4 实验设置和分析
我们基于两个预训练V&L模型进行实验:VisualBERT (Li et al., 2019), ViLBERT (Lu et al., 2019)。
(模型效果)
我们首先研究在 VCR 上训练的模型泛化到特定地区常识问题上的效果。首先,我们发现与西方图像相比,这两个模型在来自非西方地区的图像上的表现要差得多,差距大约为3-19%。此外,我们比较了模型和人类的表现。我们注意到,尽管人类可能不熟悉这种文化,但他们仍然比模型高出 30% 左右。这意味着人类更有能力将他们的常识转化并应用在地区多样化常识的理解过程中。然而目前的模型离这个水平还差很远。
我们后面从两个方面分析了产生这种表现差异的原因:
(具有地区特征的场景与其他场景上模型表现差异对比。字体越大表示模型表现差异越大。红色场景差异大于8%,蓝色场景差异小于8%。)
(在low-order和high-order QA pairs上不同地区图片的模型表现差异)
我们用 VisualBERT 在这些 QA pairs 上评估。我们首先注意到模型在 low-order QA pairs 的效果好于 high-order QA pairs。此外,模型在不同地区 low-order QA pairs 的差异远小于 high-order QA pairs。这意味着该模型在基本视觉信息的问题上可以达到相似的性能,但是复杂常识推理增加了难度并扩大了差距。这意味着“情景2”更好地描述了这个状况。
5 结论和未来影响
在文章中,我们构建了一个新的地区多样常识推理数据集 GD-VCR。我们在 GD-VCR 上评估模型性能,发现不同区域之间存在很大差异。最后我们分析了性能差异的来源:1) 具有地区特征的场景,和 2) QA pair 的推理层次。我们希望这篇文章不仅可以启发研究者去提高视觉常识推理模型在地区多样化场景上的泛化能力。我们还希望能借此文章拓宽研究人员的视野,以更加包容的态度对人工智能系统的世界通用性这一现实问题产生更多的思考。
相关文献
[1] From Recognition to Cognition: Visual Commonsense Reasoning. Zellers et al., CVPR 2019.
[2] Visually Grounded Reasoning across Languages and Cultures. Liu et al., EMNLP 2021.
[3] SituatedQA: Incorporating Extra-Linguistic Contexts into QA. Zhang et al., EMNLP 2021.
国米论坛 http://www.cityruyi.com/lm-4/lm-1/7988.html- 标签:小草社区官网
- 编辑:王智
- 相关文章
-
EMNLP 2021Oral | 拓展你的视野!UCLA提出:地区多样性视觉常识推理
EMNLP 2021Oral | 拓展你的视野!UCLA提出:地区多样性视觉常识推理 作者 | 殷达 殷达:加州大学洛杉矶分校(UCLA)二年级博士生…
-
只需1/500数据便可掌握Atari游戏!清华叉院助理教授提出小数据RL模型,引爆AI社区
只需1/500数据便可掌握Atari游戏!清华叉院助理教授提出小数据RL模型,引爆AI社区 作者 | 莓酊 编辑 | 青暮 EfficientZe…
- 小数据,大前景!美国智库最新报告:长期被忽略的小数据人工智能潜力不可估量
- 为什么硕博士都不发朋友圈了?
- 沉痛哀悼俞士汶先生:助力汉语走入信息时代第一人
- 有“肌肉”有“血管”!波兰团队耗时5年研发超逼真仿生机械臂,网友:很怪异也很牛掰
- 仅仅因为方法 Too Simple 就被拒稿,合理吗?