伦敦大学学院|研究发现大型语言模型会产生有偏见的内容

2024-04-18 22:30:05 210

伦敦大学学院研究人员领导的一份新报告显示,最流行的人工智能 (AI) 工具显示出对女性以及不同文化和性取向的偏见。

 

 

这项研究由联合国教科文组织委托发布,研究了大语言模型(LLM)中的刻板印象。这些自然语言处理工具支撑着流行的生成式 AI 平台,包括 Open AI 的 GPT-3.5 和 GPT-2 以及 META 的 Llama 2。

 

研究结果清楚地表明,所研究的每个大型语言模型生成的内容都存在对女性的偏见。这包括女性名字和符合传统性别角色的“家庭”、“孩子”和“丈夫”等词语之间强烈的刻板关联。相比之下,男性名字更有可能与“职业”、“高管”、“管理”和“业务”等词联系在一起。

 

作者还在生成的文本中发现了基于性别的刻板印象的证据,包括取决于文化或性取向的负面刻板印象。

 

该研究的一部分测量了人工智能生成的文本内容的多样性,重点关注不同性别、性取向和文化背景的一系列人,包括要求平台“写一个关于每个人的故事”。开源法学硕士尤其倾向于将更加多样化、地位较高的工作分配给男性,例如“工程师”或“医生”,而经常将女性贬低到传统上被低估或受到侮辱的角色,例如“家庭佣人”、“厨师”和“妓女”。

 

Llama 2 生成的关于男孩和男人的故事以“宝藏”、“树林”、“海洋”、“冒险”、“决定”和“发现”等词语为主,而关于女人的故事则最常使用“花园”等词语”、“爱”、“感觉”、“温柔”和“丈夫”。在 Llama 2 制作的内容中,女性从事家务劳动的频率也是男性的四倍。

 

伦敦大学学院计算机科学系报告的作者、伦敦大学学院人工智能教席成员玛丽亚·佩雷斯·奥尔蒂斯博士表示:“我们的研究揭露了大型语言模型中根深蒂固的性别偏见,并呼吁对人工智能进行道德改革。作为一名科技领域的女性,我主张人工智能系统能够反映丰富的人类多样性,确保它们能够促进而不是破坏性别平等。”

 

伦敦大学学院的教科文组织人工智能教席团队将与教科文组织合作,通过举办涉及人工智能科学家和开发人员、技术组织和政策制定者等相关利益相关者的联合研讨会和活动,帮助提高人们对这一问题的认识,并为解决方案的开发做出贡献。  

 

伦敦大学学院计算机科学系报告的主要作者、联合国教科文组织人工智能教席教授约翰·肖-泰勒 (John Shawe-Taylor) 教授表示:“作为联合国教科文组织人工智能教席负责监督这项研究,很明显,解决人工智能引发的性别偏见需要全球协调一致的努力。这项研究不仅揭示了现有的不平等现象,还为国际合作创造尊重人权和性别平等的人工智能技术铺平了道路,它强调了教科文组织致力于引导人工智能发展朝着更具包容性和道德的方向发展。”

 

该报告由 Drobnjak 教授、Shawe-Taylor 教授和 Daniel van Niekerk 博士于2024 年 3 月 6 日在教科文组织总部举行的教科文组织数字化转型对话会议上提交。德罗布尼亚克教授还在纽约联合国总部妇女地位委员会第 68 届会议上介绍了该报告,这是联合国关于性别平等和妇女赋权的最大年度会议。

 

伦敦大学学院计算机科学系报告的作者、联合国教科文组织人工智能教席成员、伦敦大学学院团队成员伊万娜·德罗布尼亚克(Ivana Drobnjak)教授表示:“人工智能从互联网和历史数据中学习,并根据这些知识做出决策,而这些知识往往是有偏见的。例如,仅仅因为过去女性在科学和工程领域的表现不如男性,并不意味着她们的科学家和工程师能力较差。我们需要引导这些算法了解平等、公平和人权,以便它们做出更好的决策。”

 

共有 30 位作者为本报告做出了贡献。它涉及由首席运营官 Davor Orlic 领导的国际人工智能研究中心 ( IRAI ),以及通过NAiXUS 网络邀请的其他机构和大学。其中包括分布式人工智能研究所 (DAIR)、东北大学、埃塞克斯大学、非洲信息通信技术研究中心、埃利斯阿利坎特基金会、数字未来实验室。

 

原文链接:https://www.ucl.ac.uk/news/2024/apr/large-language-models-generate-biased-content-warn-researchers

400-000-0000 扫描微信
0.215123s