ChatGPT之父对AI技术的高速发展充满担忧,认为社会各界及监管机构应该共同参与ChatGPT技术的测试。
当地时间3月16日,美国广播公司手机版频道(ABC News)报道称,ChatGPT之父Sam Altman在访谈中表示,人工智能(AI)技术将重塑社会,他认为AI会带来危险,但也是“人类迄今为止发展出的最伟大的技术”。
Altman是OpenAI的创始人兼CEO,去年11月该公司发布的聊天机器人ChatGPT,在短短两个月内活跃用户达到1亿,成为历史上增长最快的消费者应用程序。
本周,OpenAI再次推出新一代大型多模态模型GPT-4,与前代模型相比,其文本处理量扩大至2.5万个单词,还增加了图片处理功能。目前已有多家公司将GPT-4集成至应用程序中,微软最新发布的AI技术Copilot便是搭建在GPT-4之上。
尽管公司发布的产品取得不小成功,但Altman承认AI潜在的危险性让他彻夜难眠。
他强调,监管机构和社会各界应尽可能地参与ChatGPT的发布和测试,因为外界的反馈有助于减少该技术对人类造成的潜在威胁。他补充说,自己与政府官员保持“定期联系”。
“我特别担心这些模型可能会被用于虚假信息的大规模传播。”Altman说,“现在它们在编写代码方面表现得越来越好,可能会被用于网络攻击。”
OpenAI的首席技术官Mira Murati同样表示,公司选择将ChatGPT公开发布,主要目的是“收集大量反馈”。
“让公众与每个版本的ChatGPT进行互动非常重要。”Altman强调,外界不断测试OpenAI的各类模型并给予反馈,能够帮助该公司识别出什么地方需要设置保护措施,帮助其获知“人们会用AI模型做什么,它还存在什么缺点,如何介入和改进”等信息。
“如果我们在自己的小实验室里秘密地开发AI模型,制造出GPT-7后,突然将它向公众开放……我认为这种情况非常糟糕。”Altman说,“(因为)人们需要时间来习惯这项技术,了解它的缺点,并思考对应措施。”
不少科幻题材作品中,常有这样的恐怖情节,AI产生自我意识,不再受人类控制,并开始策划统治世界。不过,Altman认为目前AI仍然在人类的控制之下,“它需要有人输入指令才能完成任务,是一种非常受人类控制的工具。”
他真正的担忧是,AI技术掌控在哪些人手中,“有人在使用(ChatGPT系列时),不设置安全限制。但我们的社会没有太多时间去思考如何监管、如何处理这类事情。”
不过,Altman表示,为保证ChatGPT系列模型的安全性,OpenAI建立了政策制定团队,负责决定将哪些信息能够输入ChatGPT,以及ChatGPT能够与用户分享哪些信息。
“(我们)正在与政策和安全专家交谈,对系统进行审查以解决这些问题。”Altman说道,“再强调一次,我们无法在第一次就做到完美,但吸取教训并在风险相对较低的情况下找到优势非常重要。”
随着技术的高速发展,不少人担忧自己的工作将会被AI取代。Altman也认为,AI确实可能在不久的将来取代一些工作,并且担心这件事会很快发生。
“我认为过去几代人已经证明,人类可以很好地适应重大技术变革,”Altman说,“但我最担心的是,这些技术在短短几年内高速发展,会带来什么样的转变。”
尽管存在这样的担忧,Altman仍然鼓励人们将ChatGPT视为一种工具,“人类的创造力是无限的,现在我们找到了新的事情可以做。”
他将ChatGPT比作“量身定制的教育者”,它可以帮助人类学习,或为每个人提供超出其所能获得的医疗建议。
(原题:《ChatGPT之父:监管机构应参与技术测试,减少AI对人类的威胁》)
特别声明:本文转载仅仅是出于传播信息的需要,并不意味着代表本网站观点或证实其内容的真实性;如其他媒体、网站或个人从本网站转载使用,须保留本网站注明的“来源”,并自负版权等法律责任;作者如果不希望被转载或者联系转载稿费等事宜,请与我们接洽。