可行性|王彦雨:基于意向性的强人工智能目前没有可行性

中新经纬12月21日电 (薛宇飞)近日 , 清华大学社会科学学院社会学系、中国科学院学部-清华大学科学与社会协同发展研究中心主办了“伦理立场、算法设计与企业社会责任”研讨会 。 在研讨会上 , 中科院自然科学史研究所副研究员王彦雨表示 , 无论是外界干扰还是自我演化 , 只要人工智能可以形成区别于初始目标的新目标 , 并根据新目标自主行动 , 就可以看作是强人工智能形式 。 但机器所形成的新目标并不是基于意向性 , 而是基于目标变化而产生了与原始目标不同的新东西 , 成为相对于原始智能机器的异化体 。 基于意向性的人工智能 , 至少到现在还没有任何可行性 。

可行性|王彦雨:基于意向性的强人工智能目前没有可行性
文章图片

中科院自然科学史研究所副研究员王彦雨 。 主办方供图
强人工智能概念在1980年提出 , 相对于弱人工智能 , 强人工智能概念有以下共同特征:一是达到或者是超越人类智慧;二是具有意向性 , 拥有自我目标设定与自我评价及认知能力;三是强AI必须有通用性 , 拥有完整的人类能力谱系 。
王彦雨分享了人工智能研究共同体和哲学科学社会界对于强AI的看法和态度转换过程 。 20世纪50年代中期至70年代初期 , 是人工智能的第一个黄金期 , 随着人工智能技术的进步 , 这一时期的人工智能界对于强AI非常乐观 , 当时的许多人工智能科学家认为10年、20年以后的机器就可以做人类能够完成的任何事情 。 但这一时期 , 哲学社会科学界共同体是以强AI的反对者身份出现的 , 他们基于人脑功能的特殊性(如心灵的整体性、感知的综合性、经验的情景性等) , 对当时的强AI乐观思潮进行了批判 。
在20世纪70年代中期至80年代末 , 人工智能研究进入寒冬期 , 强AI概念逐渐衰落 。 1966年美国自动语言处理咨询委员会发布“ALPAC 报告” , 以及1973年英国的“Lighthill Report” , 均指出当时的人工智能技术难以解决诸如语义消歧、智能爆炸、不具备学习能力等问题 。 在他们看来 , 当时的人工智能并不智能 , 更多的是依赖一系列已经给出的固定程序来执行命令 , 没有学习能力 。 在这一时期 , 一种新的理念“智能增强”——强调人工智能研究目的是为了简化人机交互 , 而不是为了制造超越人类智慧的终极机器 , 开始吸引到越来越多的科学家 。
从20世纪90年代初至90年代末 , 人工智能界基本不再提及强AI概念 , 怕被贴上“白日梦”标签 。 不过 , 那时候开始出现了“奇点议题” , 如机器人专家莫拉维克、弗诺·文奇等通过写作科幻小说 , 来宣扬未来可能会出现超级智能机器 , 它的兴起为21世纪初的哲学社会科学界的强AI思潮提供思想基础 。 进入21世纪 , 基于摩尔定律的印证 , 哲学社会科学界开始复兴奇点议题 , 从2010年到现在 , 随着深度学习理念的提出 , 强AI的论调开始盛行 。

推荐阅读