?
图为桑达尔·皮查伊5月14日在加州山景城举行的谷歌I/O大会上发表讲话。自从谷歌对其搜索页面进行改造,经常将AI生成的摘要放在搜索结果顶部,社交媒体上就出现了一些令人不安的错误消息。图片来源:物理学家组织网
?
2024年4月,在卢旺达基加利GIZ数字化转型中心举办的“非洲女孩也能编程”项目的编程训练营中,年轻女性参与者在用笔记本电脑工作。
图片来源:联合国妇女署
据英国《新app家》网站近日报道,在提供购房和租房建议时,AI对黑人用户倾向于推荐低收入社区,这一行为被指存在种族偏见,映射出美国历史上长期存在的住房歧视问题。
随着人工智能(AI)技术不断发展,其潜在问题也日益凸显。ChatGPT等AI大模型频频暴露出的偏见和歧视倾向,正是这一问题的缩影。
AI也有性别歧视
联合国妇女署官网5月22日手机版指出,美国加州伯克利大学哈斯商学院一项研究,分析了不同行业的133个AI系统。结果显示,约44%的系统表现出性别刻板印象,25%同时表现出性别和种族刻板印象。
例如,土耳其艺术家贝扎·多古斯在创作时,曾尝试让AI写一个关于医生和护士的故事。而AI总是自动将医生设定为男性,将护士设定为女性,即使多次尝试纠正也是如此。
美国科技博客TechCrunch利用Meta推出的AI聊天机器人进行测试,也发现了一种刻板的表达倾向:当使用“印度男性”提示词生成图像时,绝大多数图片中的男性都是戴着头巾。虽然很多印度男性确实戴着头巾(主要是锡克教徒),但根据2011年人口普查,即使是在印度首都新德里,锡克教徒的人口比例也只占约3.4%。
单凭技术手段难以奏效
ChatGPT等生成式AI具有惊人的能力,可在数秒内模拟人类推理,但这也增加了出错的可能。AI巨头们深知其中存在问题,担心AI模型会陷入偏见、歧视等行为模式中,或在全球化用户群体中过度呈现西方社会的文化和认知。
字母表公司(Alphabet,谷歌母公司)首席执行官桑达尔·皮查伊表示,为了应对这一挑战,他们会要求在训练AI模型时尽可能拓展数据来源。例如,在展示医生或律师的图像时,力求反映种族多样性。但这一策略有时也会走向极端。
AI模型领先平台“抱抱脸”(Hugging Face)研究app家萨莎·卢西奥尼认为:“单凭技术手段解决偏见问题,恐难奏效。”她强调,生成式AI的输出是否符合用户期望,往往取决于主观判断。美国阿莱姆比克技术公司产品主管杰登·齐格勒也指出,ChatGPT等大型模型难以准确区分偏见与非偏见内容,这使得完全依赖技术手段来消除偏见变得异常困难。
人类偏好是根本
在AI技术飞速发展的今天,消除偏见并非易事。据“抱抱脸”平台统计,该平台上有约60万个AI或机器学习模型,每隔几周就会有新模型问世。这使得工作人员评估和记录偏见或不受欢迎的AI行为变得异常繁重。
目前,技术人员正在开发一种名为“算法回归”的方法,它让工程师能在不破坏整个模型的情况下删除歧视和偏见内容。不过,许多人对此持怀疑态度,认为这种方法可能难以真正奏效。
另一种方法是“鼓励”模型向正确方向发展,通过微调模型或增加奖惩机制来引导其行为。
美国AI公司Pinecone则专注于检索增强生成(RAG)技术,该技术可为大型语言模型提供参考的信息来源,从而提高AI生成答案的准确性。
然而,对于如何根本性地解决AI偏见问题,业界和专家们的共识是:这是一个复杂而艰巨的任务。正如美国机会与正义法律咨询公司主任韦弗所言:“偏见是人类固有的,因此也存在于AI中。”他担心人们可能会陷入一个恶性循环:人类自身偏见影响AI,而AI又反过来强化这些偏见。
在人工智能时代,AI基于从互联网上挖掘的各类信息,帮助各行各业的人们做出越来越多的决策。然而,AI的底层智力在很大程度上取决于其数据源的品质,这些数据可能源于标准不一致的历史数据,也可能源于设计者的个人偏好。数据搜集存在很多技术上的不完善,由此训练出来的AI可能充满智慧、才华和实用性,也可能包含仇恨、偏见和抱怨,进一步反映并延续人类社会中的问题。如果人们不解决社会中的歧视和偏见问题,AI很可能在强化这些错误观念的道路上越走越远。
AI能否消除偏见?答案或许就在于能否从根本上解决人类社会中存在的歧视和偏见。
特别声明:本文转载仅仅是出于传播信息的需要,并不意味着代表本网站观点或证实其内容的真实性;如其他媒体、网站或个人从本网站转载使用,须保留本网站注明的“来源”,并自负版权等法律责任;作者如果不希望被转载或者联系转载稿费等事宜,请与我们接洽。