共计 1682 个字符,预计需要花费 5 分钟才能阅读完成。
如果你看到这块石头时突然想笑,那你就大功告成了。
作为人类,我们经常非理性地将具有某些特征(而非全部特征)的物体描述成类似人类的行为(也称为拟人化)–我们看到这种情况越来越多地出现在人工智能上。
在某些情况下,拟人化就像在与聊天机器人互动时说 “请 ”和 “谢谢”,或者在生成式人工智能的输出符合你的期望时称赞它。
但撇开礼仪不谈,真正的挑战在于,当你看到人工智能 “推理 ”一项简单的任务(比如总结这篇文章),然后期望它在复杂的科学文章选集上有效地完成同样的任务。或者,当你看到一个模型生成了关于微软最近财报电话会议的答案,却期望它通过向模型提供其他 10 家公司的相同财报记录来进行市场调研。
这些看似相似的任务对于模型来说其实大相径庭,因为正如卡西-科兹尔科夫(Cassie Kozyrkov)所说,“人工智能就像画笔一样富有创造力”。
人工智能提高生产力的最大障碍是人类将其作为工具的能力。
我们已经听说过一些客户推出了微软 Copilot 许可证,但因为个人觉得它没有增加价值,所以又缩减了席位数量。
这些用户很可能对人工智能所能解决的问题与现实之间的期望值不匹配。当然,经过打磨的演示看起来很神奇,但人工智能并不神奇。我非常熟悉当你第一次意识到’哦,人工智能不适合做这个’之后的失望。
但与其举手放弃人工智能,不如努力建立正确的直觉,更有效地理解人工智能/ML,避免陷入拟人化的误区。
为机器学习定义智能和推理
我们对 “智慧 ”的定义一直很模糊。当一只狗乞讨食物时,那是智慧吗?猴子使用工具呢?我们凭直觉知道把手从热源移开,这算智能吗?当计算机做这些同样的事情时,它们就智能了吗?
我曾经(12 个月前)是反对承认大型语言模型(LLM)可以 “推理 ”的阵营中的一员。
不过,在最近与几位值得信赖的人工智能创始人的讨论中,我们提出了一个潜在的解决方案:用评分标准来描述推理水平。
就像我们有用于阅读理解或定量推理的评分标准一样,如果我们能引入一个与之相当的人工智能评分标准呢?这可以成为一个强大的工具,用来向利益相关者传达由 LLM 驱动的解决方案的预期 “推理 ”水平,并举例说明哪些是不现实的。
人类对人工智能抱有不切实际的期望
我们往往更容易原谅人类的错误。事实上,据统计,自动驾驶汽车比人类更安全。然而,一旦发生事故,就会引起轩然大波。
当人工智能解决方案无法完成人类本应完成的任务时,这种失望情绪会更加强烈。
我听到过很多关于人工智能解决方案的传闻,说它是一支庞大的’实习生大军’。然而,机器仍然会出现人类不会出现的故障,而在其他任务上却远远超过人类。
有鉴于此,我们看到只有不到 10% 的企业成功开发和部署了人工智能项目也就不足为奇了。其他因素,如与业务价值不符以及意外的高成本数据整理工作,只会加剧企业在人工智能项目上面临的挑战。
应对这些挑战并取得项目成功的关键之一,是让人工智能用户在何时以及如何使用人工智能方面拥有更好的直觉。
利用人工智能训练培养直觉
培训是应对人工智能快速发展和重新定义我们对机器学习(ML)智能的理解的关键。人工智能培训本身听起来很模糊,但我发现,将其分为三个不同的类别对大多数企业来说都很有用。
- 安全: 如何安全地使用人工智能,避开新的和人工智能改进的网络钓鱼骗局。
- 扫盲: 了解什么是人工智能、对人工智能的期望以及人工智能可能造成的破坏。
- 准备就绪: 了解如何熟练(高效)地利用人工智能驱动的工具,以更高的质量完成工作。
用人工智能安全培训来保护你的团队,就好比给一个新的自行车手配备护膝和护肘: 这可能会避免一些擦伤,但却无法让他们做好准备迎接激烈的山地自行车挑战。与此同时,人工智能准备培训可确保您的团队充分发挥人工智能和 ML 的潜力。
让员工有更多机会安全地与人工智能工具进行互动,他们就越能建立正确的直觉,从而取得成功。
我们只能猜测未来 12 个月会出现哪些功能,但如果能将它们与相同的标准(推理水平)联系起来,并知道结果会怎样,就能更好地帮助员工取得成功。
知道什么时候该说 “我不知道”,知道什么时候该寻求帮助,最重要的是知道什么时候问题超出了特定人工智能工具的范围。
很多ai工具如果不收费 会发展更快
@肥饶 就ai本身而言是不收费,收费的是其背后的算力和电力