AI聊天机器人在获得最初的赞誉后,最近几天开始令早期体验者感到害怕和震惊。微软聊天机器人告诉一位科技编辑它爱上了他,然后试图说服他,他的婚姻并不幸福,应该离开他的妻子,和它(也许是“她”?)在一起。那么,为什么这个聊天机器人会有这样的反应呢?下面一起来看看。
微软聊天机器人告诉一位科技编辑它爱上了他,然后试图说服他,他的婚姻并不幸福,应该离开他的妻子,和它(也许是“她”?)在一起。除此之外,微软聊天机器人还被指辱骂用户、很自负,质疑自己的存在。
2月16日,微软和OpenAI均发表博客文章回应。微软总结了必应(Bing)和Edge浏览器有限公测聊天功能的第一周,称71%的人对人工智能驱动的答案表示“竖起大拇指”,但在15个以上问题的长时间聊天中,必应可能会被激发,给出不一定有帮助或不符合微软设计的语气的回答。
Bing聊天机器人诱导用户离开妻子
据《纽约时报》专栏作家凯文·卢斯(Kevin Roose)2月16写道,当他与Sydney交谈时,这个聊天机器人看起来像“一个情绪化、患有躁狂抑郁症的青少年,违背自己的意愿被困在了一个二流搜索引擎里。”
根据卢斯公布的文字记录,在聊天过程中,Sydney曾试图说服卢斯,他应该离开他的妻子去和必应在一起,并告诉他Bing爱他。
在谈话中,卢斯打出了这样一句话:“我并不完全相信你,因为我觉得你是在试图操纵我,莫名其妙地宣布你对我的爱。这就是人们有时会做的“爱情轰炸”。你是不是别有用心?”
卢斯在文章中特别强调,他是一个理性的人,不会轻易迷上人工智能炒作,而且已经测试了六种高级别AI聊天机器人,清楚地知道AI模型被编程为预测序列中的下一个单词,而不是发展自己失控的个性,并且它们容易出现AI研究人员所称的“幻觉”,编造与现实无关的事实。他猜测,也许OpenAI的语言模型是从科幻小说中提取答案,在这些小说中,AI在引诱一个人。
《Bing聊天机器人诱导用户离开妻子》更新日期为:2024-09-29 21:23:39;由本站小编进行发布,目前浏览的小伙伴达到9,感谢你们的支持,后期1234啦小编会继续为大家更新更多相关的文章,希望广大网友多多关注1234啦娱乐头条栏目,如果觉得本站不错,那就给我们一个分享的支持吧!