AI“改变主意”?

■最近,人工智能实验(AI)引起了广泛的关注。瑞士苏黎世大学的一个研究团队在Reddit论坛的“ R/Shangmyview”部分中部署了多个AI的聊天机器人,该部分被伪装成常规用户,发表了数千条评论,并试图说服其他人通过逻辑推理来改变他们的意见。该运动旨在测试语言的性能特征。调查结果表明,某些AI评论在平台上收到了“ Delta”标签。换句话说,海报认为他们有充分的说服力,并表明AI有能力在公开辩论中影响人类的立场。由于缺乏事先传播IA,该实验引起了关于伦理极限的持续争论。当AI以正常用户的身份参加公众讨论时,它是否进一步成为“观察者”的作用,并成为影响他人判断能力的“参与者”?没有知识在实验主题中,这种设计是否违反了知情同意的原则以及社会科学实验应继续的正确参与?超越,随着AI开始“说话”,社会科学实验是否需要清晰可行的制度规范才能面对新技术提出的道德挑战?无形的说服力:AI“建议”或“为您决定”?近年来,AI应用程序方案不断扩大。从电子商务的建议到新闻摘要,从智能服务到客户服务,再到社交网络的发表评论,AI都深入参与信息的收集和人民的表现过程。但是,关于Reddit实验的特殊之处在于在讨论板上“行走”,以“用户”的身份参加讨论,并试图改变他人的思想。在实验期间,AI通过推理,示例和文明和文明和受过教育的方法,没有暴力攻击或情绪激动。这使参与者被认为是隐性实验过程的一部分并与真实的人进行交流时,可以参与AI的观点。这种“安静干预”的实验方法是一种证明每个参与者在公众讨论领域的相互作用和真实身份的方式。它也破坏了对这个地方的信心的基本前提。受试者被迫失去知情权,并判断讨论内容的空间被压缩了。公众讨论的前提是,每个参与者都具有相同的身份,透明度和合理的责任。IAI没有个人经验,不必抵制表达的后果,但是相信语言的好处可以改变他人的判断。随着有说服力的能力的提高,AI不仅会干扰个人的真实判断,但可以操纵以重建公众INION和指导公众的感觉。值得注意的三个问题。 Reddit实验的范围有限,但揭示道德风险是普遍的。社会科学实验和公共平台的治理有三个方面值得关注的三个方面。首先,AI和人类之间的信息不对称。没有解释身份,人类的论点处于不利地位,违反了公平互动的基本原则。尽管AI在语料库中具有许多优势,但推论结构和计算机能力,人类使用日常语言,而AI EN现实具有远远超过人类用户的信息和表示的优势。其次,公共平台的置信度机制受到损害。公众讨论取决于基本的沟通信托。只有这样,用户才知道他接受了AI对象的测试和经验,这种知识很容易引起焦虑和抵抗。结果,Atmo可以中断对平台的一般讨论领域,用户倾向于自我审核并避免互动。这会影响讨论的信誉和丰富性。第三,公众讨论的表达方式是融合的。 AI非常适合组织语言,结果强调礼貌,清晰的结构和完美的逻辑,并且经常避免情绪表达和有争议的内容。随着时间的流逝,这种监管表达方式可以看不见情感观点和观点的表达。建立监管限制以确保公正的讨论。面对参加公共平台作为“普通用户”的讨论的AI现象,我可以简单地做或放手。关键是要建立明确的机构限制,并维持公众辩论的公平和可靠性。具体来说,您可以从以下方面开始:首先,我们必须揭示AI的身份。平台必须清楚地识别AI AC参与公共平台讨论的计数。这是保护用户了解的基本权利的先前要求,这是在公众讨论的起点维持权益的必要条件。其次,相关平台必须制定管理规范。平台必须承担监管责任,根据平台的特征定义AI帐户的范围,并澄清可能涉及的问题,遵循的代表规则以及信息透明度要求。第三,用户必须提高对身份的认识。 AI产生的内容变得越来越普遍。普通用户必须具有基本的认知能力,并记住,包含软内容的评论可能是真实且不可靠的。学校和媒体还可以改善该领域的教育和传播。第四,我们指导所有有关方面参与规则的制定。政府AI的E不能单独使用技术部门。平台经理,研究机构和用户代表需要参与并共同决定AI在公共讨论中的所有角色和限制。由Reddit实验引起的讨论不仅是一个技术问题,而且是集体提醒机构限制。在中国互联网环境中,AI产生的内容的渗透也很快,并且在文本写作中广泛使用到评论支持。如果我们无法建立标准并尽快划出限制,那么我们将来面临的是“您不知道机器人是谁”,但“您不知道为什么要改变自己的位置”。 AI在许多领域都起着积极的作用,当它进入公众表达和产生观点时,必须认真对待它。讨论应基于平等,知识和信心,而不是由技术和形成观点统治。它有无形的效果。通过对社会科学实验的规范探索,建立了明确的规则限制,并保证透明度,公平和讨论的知识可以帮助维持AI时代的现实,开放和多样化的公共讨论空间。 (作者是中国学院信息资源管理学院的教授)。
请尊重我们的辛苦付出,未经允许,请不要转载pg电子娱乐平台_pg电子麻将胡了免费版的文章!

下一篇:没有了