如何保持人类对人工智能的掌控

1,489次阅读
2 条评论

共计 2099 个字符,预计需要花费 6 分钟才能阅读完成。

如何保持人类对人工智能的掌控

“我们用户”需要继续掌管人工智能,而不是科技公司或政治精英。谷歌最近在双子座人工智能系统上的失误充分说明了这一点。

双子座不会说希特勒比埃隆-马斯克的推文更糟糕。它拒绝撰写主张使用化石燃料的政策文件。在默认情况下,它生成的图像会暗示美国的开国元勋是不同种族和性别的人。

这些例子看似滑稽可笑,但却暗示了一个并不遥远的、乌托邦式的未来,在这个未来中,私人人工智能公司中不负责任的官僚们将决定哪些思想和价值观可以表达,哪些不可以表达。任何人,无论其意识形态如何,都不应接受这一愿景。

我们也不应要求政府告诉人工智能公司如何控制人工智能言论。政府监管对人工智能的安全性和公平性非常重要,但生活在一个自由的社会里,就不能让政府来告诉我们人们可以表达或不可以表达什么思想和价值观。

因此,企业和政府显然不是做出这些决定的合适实体。与此同时,我们也必须做出决定。人们将使用这些人工智能工具来寻找各种信息,并尝试生成各种内容。用户希望这些工具能够反映他们的价值观,但他们不会就这些价值观达成一致。

除了公司和政府之外,还有第三种选择: 让用户负责人工智能。

让用户掌控人工智能的策略

在过去的五年里,除了作为一名学术政治学家的工作之外,我还与科技行业合作,开发并尝试了各种方法,让用户能够帮助管理在线平台。通过这项工作,我学到了如何有效地让用户掌管人工智能。

首先,让用户通过市场选择护栏。我们应该鼓励大量的微调模型。不同的用户、记者、宗教团体、民间组织、政府和其他任何有意愿的人都应能轻松创建反映其价值观的定制版开源基础模型,并添加自己喜欢的防护栏。这样,用户在使用该工具时就可以自由选择自己喜欢的模型版本。这将使生产基础模型的公司尽可能避免成为人工智能的 “真理仲裁者”。

虽然这种微调和护栏市场会在一定程度上减轻公司的压力,但并不能解决中央护栏的问题。有些内容–尤其是图片或视频–会非常令人反感,以至于公司提供的任何微调模型都不允许使用。这包括已经直接违法的内容,如儿童性虐待材料(CSAM),但也包括许多存在于更灰色领域的内容,如可能具有诽谤性的对真人的讽刺性描述、在某些情况下可能会冒犯某些人但在另一些情况下不会冒犯某些人的污言秽语、性或色情内容、对被认为是恐怖分子或自由战士的团体的支持等等。

公司如何才能在这些问题上实施适用于所有不同微调模型的集中防护措施,而又不至于回到双子座公司所遇到的政治问题?答案就是让用户来负责设置这些最低限度的中央防护栏。

事实上,这也是一些科技公司已经开始尝试民主的原因。首先,在2022年,Meta公司宣布举办一个 “社区论坛”,就如何为其开源生成式人工智能工具LlaMA设计某些防护栏征求公众意见。六个月后,OpenAI 宣布了一个类似的项目,旨在寻找 “人工智能的民主投入”。与此同时,人工智能初创公司 Anthropic 发布了一部由一组具有代表性的美国人共同撰写的宪法。

这些都是很好的第一步,但我们还需要做更多。像这些实验所做的那样,招募具有代表性的用户样本成本高昂,而且被招募者并没有 “参与游戏”–他们缺乏理解问题和做出正确决定的强烈动机。此外,每次大会只开一次会,这意味着治理方面的专业知识不会随着时间的推移而积累。

对中央护栏有意义的权力

人工智能要实现更强的民主,就要求用户可以提出建议、对其进行辩论和投票,他们的投票对平台具有约束力。允许提案的范围可以缩小,以避免允许违反法律或不当影响平台业务的提案,但应保持足够的广泛性,以便让人们对平台的中央护栏拥有有意义的权力。

虽然目前还没有任何科技平台试图实施这样一个真正的投票系统,但Web3的实验–比如Eliza Oak和我在最近一篇学术工作论文中研究的实验–指明了一条前进的道路。Web3 领域的初创公司多年来一直在尝试权力极其广泛的投票系统。虽然他们在实现完全民主的道路上仍处于早期阶段,但我们已经学到了四条适用于人工智能平台的关键经验。

首先,通过将人们的投票权与对用户有用的东西挂钩,避免人们在没有任何利害关系的情况下投票。人工智能平台可以将投票权与数字代币挂钩,用户可以在平台内使用这些代币–例如,作为购买更多计算时间的积分。

其次,不要要求每个人都对所有事情投票。相反,鼓励用户将代币委托给经过验证的专家,由他们代表用户投票,并对他们提出的建议、投票方式和原因做出透明、公开的解释。

第三,建立奖励制度,鼓励良好的治理参与。宣布用户将获得额外的代币–他们可以用代币投票,也可以用代币支付人工智能的使用费–当他们在一段时间内形成了有意义地参与治理的记录。

第四,将这一投票系统纳入更广泛的章程中,明确哪些提案属于用户范围,公司何时以及如何否决某类提案,谁拥有投票权以及投票比例等等。明确公司承诺放弃为其人工智能工具设置中央护栏的权力。

帮助社会信任我们的所见所闻

平台可以从小规模试验开始,只在少数几个决策中试行,并随着时间的推移逐步扩大其权力。不过,要想取得成功,人工智能公司最终必须明确承诺不能设置自己的中央护栏。只有这样,社会才会相信,我们所看到的一切以及我们对所提问题的回答,不会被不认同其价值观的、不负责任的行为者所扭曲。

正文完
 4
裴先生
版权声明:本文于2024-04-07转载自How to keep humans in charge of AI,共计2099字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(2 条评论)
青鱼公务员 评论达人 LV.1
2024-04-09 23:29:14 回复

人工智能需要智力还需要几十年 没有那么快

 Windows  Chrome  中国北京北京市皓宽网络
本站勉强运行: