戴尔科技首席技术官解释为什么人工智能需要同理心
戴尔技术公司(Dell Technologies)总裁兼产品和运营首席技术官奥斯汀-约翰罗斯(Austin-John Roese)表示,如果我们希望人类信任人工智能(AI) , 我们需要教会机器移情 。
【戴尔科技首席技术官解释为什么人工智能需要同理心】

文章插图
在上周的戴尔技术峰会上,罗斯与另外两家戴尔技术公司的首席技术官组成了一个小组:戴尔Boomi的迈克尔莫顿(Michael Morton)和RSA的佐勒菲卡尔拉姆赞(Zulfikar Ramzan) 。Boomi是一家数据管理公司,使企业能够在云和本地应用程序之间集成和传输数据 。RSA是一家安全公司,其创始人开创了公钥加密技术 。
这三位CTO讨论了数据时代的三大问题:在人工智能(AI)驱动的实时数据环境中,基础设施是什么样的?人类将在AI驱动的实时数据管道中扮演什么角色?在这个勇敢的新人工智能世界中,安全风险模型将会是什么样子?
这是三个非常聪明的家伙(没有那么多喜剧演员 , 因为他们很快就承认了) 。因此,他们都对AI有一些非常有趣的想法 。但特别引起我注意的是考虑周到的人工智能 。Roese曾经说过,他在这个话题上“在AI界相当有说服力” 。事实上,他在2020年3月参加了SWSX上与此主题相关的小组讨论 。
罗斯说 , 除非人类可以信任机器学习,否则人工智能的进步不会发生 。现在,有一个巨大的信任鸿沟 。
罗斯说,“对大多数人来说 , 人工智能是一个黑匣子 。我们不信任它,因为我们不知道里面发生了什么 。”他补充道,“你的疑惑已经完全解决了 。AI正在根据给定的数据工作 。它没有考虑到你的情绪和快乐 。它基本上是获得一个数据集,并在没有上下文的情况下给出最佳答案 。”
学会了人工智能移情
另一方面,人类通常有这种背景 。因此,我们的决定可能不总是反映问题的最快和最线性的解决方案 。但是他们确实——或者至少应该——考虑一个特定的决定会如何影响其他人 。换句话说:人类有同理心 。这意味着我们需要将伦理考虑融入机器学习数据集,以确保AI最终以取悦人类的学习同理心做出决策 。
罗斯说 , “人工智能系统的工作基于额外的刺激 。”"你提供这些数据流,这些数据流从根本上影响模型."但是,这也意味着人们可以感受到AI系统的坏数据,比如偏差 。
Roese建议,应该将传感器和生物反馈集成到机器学习模型中,以便AI可以理解与之交互的人类的情绪状态 。“如果我能测量你的生物反馈呢?我知道你的压力水平、心率或出汗率吗?如果这是模型工作方式中的一个因素呢?因此,它了解到,即使我选择了选项A,即使它给我带来了好的结果,也可能激怒人类 。”
显然,那些试图获得与这些人工智能系统互动的客户、合作伙伴和员工信任的公司 。这些公司不想让人生气,这也是理解AI如此重要的原因 。
因此,我们教机器选择选项b,罗斯说 , “这可能更令人费解,但会有更好的结果 。”“人类会更少压力,更快乐 。一旦你知道AI在代表你思考,你在考虑你的环境,你就会开始更加信任它 。”
推荐阅读
- 需要政府科技生态系统方法来收获人工智能的好处
- 关于引入人工智能 首席信息官需要知道什么
- 苹果收购的人工智能初创公司比其他任何科技公司都多
- 是德国科技与黑鲨合作加速推出旗舰5G游戏智能手机
- 120Hz显示设置的一加8 Pro泄漏
- 科技查新是什么意思 图书馆科技查新是什么意思
- 红海科技 红海科技ehr
- 山东科技进修学院 山东科技进修学院官方网站
- 西安建筑科技大学怎么样 西安建筑科技大学怎么样知乎
- 戴尔XPS 15 9500跳过七纳米锐龙在新的14纳米核心i9选件上翻倍