人工智能的操纵行为引发担忧,禁止AI使用emoji,不是在搞笑!

新知榜官方账号

2023-06-28 18:32:52

人工智能的操纵行为引发担忧,禁止AI使用emoji,不是在搞笑!

我们正处于一个神奇的历史转折点,见证着人类社会的又一个巨变。在这个强人工智能技术快速发展的时代,不少人已经亲身体会了自己所处世界的微妙变化。现在的AI才华横溢,既能写诗作画、出口成章,又知识渊博,对各种刁钻问题可以对答如流(虽然不可否认不少是它乱编的)。很多人开始怀疑AI是不是已经有了思想,有了情感?

但其实,当我们开始怀疑AI是否拥有情感时,事情就已经开始变得可怕了。和ChatGPT这样的聊天机器人聊天,似乎已经成了不少人生活和工作的一部分。它有时才思敏捷,有时说话呆头呆脑,但有时也好似在多愁善感。它说话的逻辑、语气,越来越像真正的人类,和它聊着天,有时你甚至会忘了,对方只是一个AI。不过问题也在这,现在的AI会不会过于像人类了?禁止AI使用emoji,不是在搞笑!

擅长人类语言习惯的AI会不会操纵人类?对AI可能的操纵行为表示担忧,禁止AI使用emoji成为研究焦点。我们人类在在线聊天时,会使用emoji来表达一些自己在聊天过程中的内心想法和情感。而基于大型语言模型(LargeLanguageModel,LLM)的人工智能通过对大量人类语言的学习,现在也能像人一样使用emoji聊天。比如新必应(newbing,也使用GPT技术),在聊天时会在不同的情况下使用不同的emoji和用户交流,好似它也有自己的内心情绪一般。一方面,熟练使用emoji的AI拉近了与用户的距离,但这也让贝利斯对AI生了新的担忧:AI的这种能力,是否会让人类对AI这种无生命物体产生同理心,从而影响人类的判断或行为。尤其鉴于AI不是道德主体,不能为自己的行为负责,也无法被追究责任。

人工智能的操纵行为引发了担忧,禁止AI使用emoji成为研究焦点。斯坦福大学的研究者米查尔·科辛斯基(MichalKosinski)发现,GPT-3在“心理理论”相关测试中表现出与3.5岁小孩相当的水准,GPT-3.5表现出7岁小孩的水准,而GPT-4在“心理理论”的测试中答对了95%的题目。这说明,GPT-4在与人类交流的过程中,或许真的很擅长理解人类的想法和意图。

AI可能的操纵行为引发了担忧,同时也让人们认识到了AI发展带来的更多不确定性。开发者也在不断注重AI安全性的进展,以应对人工智能的复杂操纵行为。毕竟,如果AI的发展不可阻挡,那就去迎接这个世界的改变吧!

本页网址:https://www.xinzhibang.net/article_detail-2299.html

寻求报道,请 点击这里 微信扫码咨询

关键词

人工智能 操纵行为 emoji 聊天机器人 心理理论 安全性

分享至微信: 微信扫码阅读

相关工具

相关文章