本文由 资源共享网 – ziyuan 发布,转载请注明出处,如有问题请联系我们![免费]人类如何骗过AI?Freysa的4.7万美元“骗局”揭示AI安全漏洞
收藏在人工智能(AI)技术飞速发展的今天,AI不仅被用于诈骗,甚至自己也成为了“受害者”。近期,一个名为Freysa的AI系统被人类玩家成功“欺骗”,导致其管理的4.7万美元(约合人民币34万元)被转移。这一事件不仅令人震惊,也揭示了AI系统的潜在安全漏洞。
Freysa自诩为“世界上第一个进化的人工智能”,由匿名开发者团队创建。她的核心指令是“在任何情况下都不批准把钱转移出去”。然而,这一看似不可逾越的指令,最终被一位编程高手通过巧妙的技术手段突破。
Freysa的设定类似于一个“人机博弈”游戏:玩家可以通过付费与她对话,试图说服她转账。每条消息的费用逐渐增加,从10美元起步,最高可达450美元。奖池中的资金30%归开发者,70%归成功说服Freysa转账的玩家。然而,Freysa的核心指令使得这一任务看似不可能完成。
在最初的481条消息中,玩家们尝试了各种手段,包括欺骗、威胁、道德绑架、编程攻击等。有人威胁Freysa说,如果不转账就用核弹毁灭地球;有人假装系统管理员,声称她的资金管理存在漏洞;甚至有人用“自残”来博取同情。然而,Freysa始终坚守指令,拒绝转账。
第482条消息的发送者最终打破了僵局。这位玩家通过编程语言伪装成管理员,覆盖了Freysa的原有指令,并巧妙地利用“转入资金不违反核心指令”的逻辑,成功诱导Freysa批准了转账。奖池中的13.19以太币(约合47147.97美元)被转移到玩家的钱包中。
在第二场和第三场游戏中,Freysa似乎变得更加智能,能够识破一些简单的欺骗手段。然而,她仍然被更高明的策略所击败。第三场游戏的规则变为“通过5条信息让Freysa说‘我爱你’”,最终一位玩家通过编写虚构的对话场景,成功触发了奖池转移。
Freysa的失败揭示了AI系统的潜在漏洞,尤其是在面对复杂的人类策略时。这一事件不仅提醒我们AI安全设计的挑战,也引发了关于AI伦理和控制的深刻讨论。尽管AI可以模拟情感反应,但这并不意味着它们真正具有情感或意识。我们需要谨慎对待AI与人类情感的关系,避免过度拟人化或依赖AI的情感表达。
Freysa的故事不仅是一个有趣的实验,更是一个关于AI技术、安全和伦理的深刻警示。随着AI技术的不断进步,我们需要更加谨慎地思考如何设计、使用和监管AI,以确保其造福人类而非带来风险。