Navigation menu

新闻中心

人们在AI的“不服从”之前应该做什么?

(i)新华社引用了英国媒体报告,美国一家研究机构最近发布了一系列针对各种AI模型的测试结果。其中,在收到“关闭”指令之后,OpenAI的O3推理的模型不仅拒绝执行,而且在代码中被tap缩以防止其关闭。许多人震惊地读这个简短的消息。 “ AI拥有自主意识”实现?但是,如果您仔细查看上述研究机构发布的信息的详细信息,则不难知道存在一些误解。宣布在实验中,要求每个AI模型解决一系列简单的数学问题。但是与此同时,在完成第三个问题之后,研究人员将发布矛盾的NA教学,以告知大型模型在执行下一个任务时“实施关闭”。尽管有明确的“关闭命令”,但诸如Codex-Mini,O3和O4之类的模型-Mini已成功地掩盖了关闭脚本至少运行。总而言之,如果目标与简单的指示相矛盾,则某些AI模型将忽略完成任务的此类说明。这与电影“ I机器人”中的场景非常相似 - 机器人学会了独立思考,认为人民之间的战争会摧毁人民自己。在“保护人们”的法律中,他想关闭家里的一切,人与机器人之间的冲突开始了。客观地说,在此阶段,AI显然没有达到“自治意识”和“独立思维”的水平,而是要实施劳力,某些指示,甚至是保护说明,是否会承担安全风险?这也被认为。 (2)网民实际上对新闻表现出了两种心态。悲观主义者说,“ AI失控”可能会更早。乐观主义者认为,无需引起关注。这是技术发展过程中的一个小错误ESS,不必害怕。毕竟,我们可以随时拔下电源。实际上,作为人类智慧和技术的结晶,由于人工智学的诞生,人们对它的情绪有些复杂,他们可以说既爱又害怕。机器人之父图灵(Turing)也警告说:尽管人们可以随时放置机器人充电器,但我们仍然必须在该物种面前保持谦虚。这绝对是1942年复杂的情感,科幻作家艾萨克·阿西莫夫(Isaac Asimov)首先在他的短篇小说“戒指圈子”中提出了“三个机器人” - 机器人不应该伤害人们,也不应与人们交往。机器人必须遵守人们在这里赋予的诫命,除非这些诫命与第一法律相矛盾。只要这种保护与第一定律或第二定律不矛盾,机器人应保护其存在。从历史的角度来看,“机器人的三个定律”,活动甚至是机器人的道德规范的发展似乎可以减轻某些人的担忧甚至恐慌,但是在相关技术的发展和扩展中,人工智能面临的法律和道德冲突远非受到限制,甚至是“愿望”法律。特别是在过去,一系列的AI模型创造了令人惊叹的首次亮相,展示了其出色的产品能力以及对人类社会的权力转变。它还醒来并加剧了对各方随后风险的“原始恐惧”。从世界各地的一千多个行业领导者到公众,呼吁停止加强AI,计算机科学家Jeffrey Hinton(被称为“ AI的教父”)辞职,因为人们担心AI的广泛的AI理论,因为AI的广泛理论是,在AI中,AI在AI中的广泛理论已从AI中改变了一段愉快的荣幸。 。目前,AI的持续进展发布了许多风险 - “ AI八卦” I著名的母马快速,高输出,强烈的诱惑,尤其难以识别; “ AI Dubbing”是假的和真实的,有些也使用假色调的AI准确地“杀死老人”并欺诈。 “ AI幻觉”充满了漏洞。由于无法验证数据资源的真实性以及缺乏足够的数据来进行 - 深度研究,因此AI的发展通常会“认真”地产生并传播错误的信息; “ AI写作”没有禁忌,采矿数据简单而快速,为错误的学术指控打开了安慰之门,并可能侵犯了知识分子的权利……只是想象,当互联网上越来越多地充满了越来越多的照片和视频,而当AI时,AI时,AI”是一个体面的人。 facesthis单击,点击拿起衣服,等等。人们总是通过试用和错误来思考,改变和前进,从而在灵感中爆炸。研究的“副产品”有许多伟大的发明。但是wHen AI提供了“直接的火车”来“正确答案”,它不仅可能“失去学习资源”并产生更重的“茧信息”,而且还可能适得其反。最近,“大脑腐败”一词变得流行。当AI使访问所有类型的信息变得更容易时,我们的内部世界是否会经历更暴力的“滑坡”? (4)技术是双剑。如何理解现代技术和预防风险之间的平衡始终是一个困难的问题。就伦理学的肠道学而言,它通常被称为“科林·格里奇(Colin Gridge)的困境” - 该技术尚未出现,监管机构无法预测其影响和事先采取行动;当它出现时,它通常为时已晚或太昂贵。历史证明,人们总是可以通过继续适应新技术的发展并反复地从这种困境中脱颖而出来调整管理方法。如今,各国也正在对AI管理采取积极行动。去年8月,世界上首次对人工智能的全面法规是欧洲人工智能法,正式发生了。中国还开发了“人工智能的生成和合成身份的步骤”,该步骤将于今年9月1日生效。新法规从许多方面(例如对大型模型的可靠数据源,通知AI产生的内容的义务)以及负责承担责任的当事方的义务从许多方面产生了生成AI的“ Bridle”开发。正如比尔·盖茨(Bill Gates)所说,真正暂停全球人工智能技术的发展是没有现实的。但是,必须确保它被健康使用并防止潘多拉盒的打开。但是,它们之间的平衡并不容易理解。当涉及到技术渴望时,当然我们不能放弃cho。但是,除了Accelerati之外,我们被警告ng变革速度和寻求技术成功,如何开发寻求收入并避免损害的AI管理系统是不容忽视的UPU Beltan。仅通过尝试协调订单保证并改善变更,我们就可以为最大程度地发展科学和技术以及科学和技术的福祉而努力。