2019年,李飞飞教授与哲学家约翰·埃切门迪共同成立了斯坦福大学以人为本人工智能研究院(HAI),旨在推动人工智能技术的发展,同时确保这些强大的工具能够服务于提升人类福祉,而非仅仅追求生产力的提高。
作为现代人工智能领域的奠基人之一,李飞飞从更加人文的视角看待如今的技术发展,她说:“现在有很多噪音,有很多夸张的论述,但这是技术发展的一个必经阶段。在这个以人工智能为驱动的时代,以人为本的理念比以往任何时候都更为重要。”
本文经授权摘编整理自《我看见的世界》。
《我看见的世界:李飞飞自传》,作者: [美] 李飞飞,译者:赵灿,版本:中信出版社 2024年4月
人工智能带来社会危机
2015 年 5 月,雅虎图片托管服务 Flickr 在描述 56 岁黑人男子威廉的肖像时,自动生成了一个标签“猿”。
雅虎的新技术立刻引发了各方强烈愤慨。此后,这项技术接二连三出现失误:将达豪集中营大门的照片标记为攀爬架,把一位脸上涂有彩色粉末的白人妇女贴上了“猿”的标签。雅虎 Flickr 已经麻烦缠身。不仅是雅虎,谷歌也陷入了类似的争议,谷歌照片服务也将两个黑人青少年错误地标记为“大猩猩”。
图像分类本已是老生常谈的成功技术,却在短短几周内变得非常复杂。
虽然事故并非恶意,但这并不能让人感到宽慰。相反,无心之失所揭示的问题才更加令人不安:包括 ImageNet 在内的数据集由于缺乏多样性,导致了一系列意料之外的结果;未经充分测试的算法和存疑的决策又进一步加剧了负面影响。当互联网呈现的是以白人、西方人和男性为主的日常生活画面时我们的技术就很难理解其他人群了。
有果必有因,正如记者兼评论员杰克·克拉克(Jack Clark) 所言,问题的根源在于人工智能“男性之海”问题:科技行业的代表性不足,导致算法无意中带有偏见,在非白人、非男性用户身上表现不佳。这篇文章于 2016 年发表在彭博社网站上,是对人工智能伦理问题的最早一批讨论之一。
从代表性问题的出现,到问题被大众真切地感受到,中间往往需要几年的时间。
李飞飞和她的同僚们决定,向九年级和十年级的女生开放为期两周的斯坦福大学人工智能实验室课程。让每个一直被历史排除在外的参与者相信,她们同样属于这个时代、这个领域。
李飞飞,1976年出生于中国北京,美国国家工程院院士、美国国家医学院院士、美国艺术与科学院院士,美国斯坦福大学首位红杉讲席教授,以人为本人工智能研究院(HAI)院长,研究领域主要为计算机视觉、认知神经科学、计算神经科学和大数据分析。
邀请少数人群参加人工智能课程的想法非常受欢迎,这个项目很快就像滚雪球一样发展成为全国性的非营利组织,遍布北美各地校园,使命范围也不断扩大。这个项目开始向有色人种学生和经济困难学生开放。
在短短几年后,这个项目就正式命名为 AI4ALL,甚至吸引了一些资金,梅琳达·弗伦奇·盖茨(Melinda French Gates) 的 Pivotal Ventures 创投公司和英伟达创始人黄仁勋提供了一轮融资,让项目改头换面。
这个旅程可能需要几代人才能完成,现在只是迈出了一小步,但实现了从无到有的跨越。在业界追逐人工智能未来时,往往肆意而为,缺乏自省,而 AI4ALL的努力能够保证,至少有一小部分人在逆向而行。
在风暴中心
2022 年底,ChatGPT 的公开发布席卷了世界,随后出现了更多生成式人工智能工具。
从最初只能执行简单的任务到如今具备类似人类的能力,短短几年的时间,人工智能的发展速度令人咋舌,与此同时,对其潜在风险的担忧也日益增加。
事实上,人工智能存在的偏见问题直到现在依然没有被很好地解决。2023年底,《华盛顿邮报》发表了一篇详尽的专题报道,深入探讨了机器学习技术中潜在的偏见。当前的 AI 图像生成模型,如 Dall-E 和 Stable Diffusion,有时仍会反映出社会的刻板印象。例如,在生成“具有创造力的人”的图像时,这些系统往往倾向于呈现白人形象;而在描绘“社会服务人员”时,则多数情况下展示的是有色人种的形象。
美剧《西部世界》剧照。
其实,大型语言模型,即使是多模态的大型语言模型,可能也并不具备真正意义上的“思考”能力。大型语言模型很容易出现荒谬的概念性失误,也乐于编造听起来合理但实际上毫无意义的胡言乱语。
了解这些事实有助于我们避免过分迷恋模型的能力。然而,随着大型语言模型生成的文本、图像、语音和视频越来越复杂,真与假之间的界限愈加模糊。越来越多的评论家开始质疑,为我们敲响警钟:作为个人、机构,甚至社会,我们究竟有没有能力区分真实和虚构?
当人们意识到这一切还只是 1.0 版本时,这种发问尤其令人警醒。
我们仍身处一场全球风暴之中。每天似乎都有新的头条新闻报道自动化对全球劳动者构成的威胁。随着人工智能在监控领域的应用日趋成熟,记者和人权活动家的担忧与日俱增,对隐私和个人尊严对隐私的古老威胁也在现代社会出现,相关报道使公众对人工智能形成了负面看法,这在整个科技领域都是非常罕见的。
科技不断发展,算法语言表达的高级程度已逼近人类水平。机器人正在逐渐学会应对真实的环境。视觉模型不仅可以通过照片进行训练,还可以在全三维世界中进行沉浸式实时训练。人工智能能够像识别内容一样流畅地生成内容。与此同时,伦理问题在我们周围不断涌现,与人类经济社会发展的关联也日益紧密,但这就是科学一直以来的样子。
重估人工智能
从 ImageNet 时代开始,规模的重要性就已经显而易见。但近年来,“越大越好”的观点几乎被赋予了宗教般的意义,关于“大数据”的讨论永无休止,不断强化着这样的观点:规模是神奇催化剂,是机器中的幽灵,可以将人工智能的旧时代与令人窒息的梦幻未来区分开来。
没有人能否认,神经网络确实在这个资源丰富的时代蓬勃发展:惊人的数据量、大规模分层架构和大量互联的硅片确实带来了历史性变化。
美剧《西部世界》第三季剧照。
人工智能正在成为一种特权,一种排他性极强的特权。越来越多的学者、政策制定者认为,使用人工智能模型的高昂成本正在将研究人员排除在该领域之外,从而损害了对这一新兴技术的独立研究。这种权力的转移正在悄然改变人工智能领域的格局,促使研究人员将他们的研究成果更多地应用于商业领域。
学术界早就意识到人工智能可能会带来负面冲击,比如缺乏透明度、容易受到偏见和对抗性影响等等。然而,由于研究规模有限,风险一直只存在于理论层面。市值接近万亿美元的公司已经掌握了主导权,潜在风险的发展步伐也急剧加快。无论是否准备就绪,这些问题都需要以商业速度加以解决。
每个问题单独来看都令人担忧,但它们共同指向了一个未来,其特点是监督减少、不平等加剧,如果处理不当,甚至可能导致迫在眉睫的数字独裁主义问题。
硅谷的傲慢态度向来为外界所诟病。在人工智能时代,尽管我们对潜在风险的认知不断加深,企业的夸夸其谈也上升到了新的高度,企业高管们承诺将在不久后推出自动驾驶汽车,设计出高超精湛的肿瘤检测算法,实现工厂的端到端自动化。至于被先进技术取代了工作的人(出租车司机、长途卡车司机、装配线工人甚至放射科医生)的命运,商业领域的态度似乎介于半心半意的“再培训”和几乎不加掩饰的漠不关心之间。
无论首席执行官和自诩为未来学家的人的言论如何彻底脱离公众,技术的日益普及都会进一步加剧人们对人工智能的恐惧。在这个时代,里程碑接二连三地出现,最可怕的情景正在逼近。有偏见的人工智能被广泛应用于处理贷款申请,甚至协助法官做出假释决定等方面。类似的报道还显示,在某些招聘中,求职者会先经过人工智能技术的筛选,然后才有真人面试官进行面试,此类做法往往会在无意中造成歧视性影响。
如今的人工智能是如此宏伟,如此强大,如此反复无常,既能轻易激发灵感, 也很容易摧毁一切。要让人工智能值得信任,需要的远不止商业公司空洞的陈词滥调。
美剧《西部世界》第三季剧照。
人工智能的未来
我们曾经将人工智能视作纯粹的科学,而现在,我们更愿意用:“现象”“颠覆”“谜题”“特权”“自然之力”来定义新一代人工智能所能做的一切,无论是好是坏,无论是在预期之内,还是在意料之外,都因其设计本身缺乏透明度而变得复杂。
如果在算法设计完成后,再加入安全性和透明度等考虑因素,无论设计得多么精妙,都不足以满足要求。下一代人工智能必须从开发之初就采取与现在完全不同的理念。以激情为起点固然很好,但我们要面对的是纷繁复杂而又不起眼的挑战,要取得真正的进展,就必须有敬畏之心。而硅谷似乎缺乏这种心态。
如今,人工智能是一种责任,是我们所有人共同承担的责任。
深度学习飞速发展,每一年都感觉像是要面对一个全新的领域,其应用的深度和多样性增长得如此之快,甚至全职研究生和博士后也很难跟上文献的步伐,更不用说教授们了。可能性无穷无尽,挑战也永无止境。
即使在这样一个黑暗的时代,人工智能也具有无与伦比的激励力量。面对全球亟待解决的 问题,面对具有历史意义的机遇,面对可能需要几代人的努力才能揭开谜底的未知,真正解决所有问题的答案远远不是公司战略或学术课程所能提供的。未来几年,从业者需要的不仅是专业技术知识,他们还必须了解哲学、伦理学,甚至法律。
想象空间是巨大的,但愿景需要一个重要的纽带串联起来,这个纽带就是大学。早在有人利用人工智能谋取利益之前,人工智能就已经在大学里起步了。在大学校园里,仍然最有可能感受到某些意想不到的研究突破带来的火花。感知机、神经网络、ImageNet,以及后来的很多东西都出自大学。
要从根本上重新构想人工智能,使其成为以人为本的实践,与其说这是旅程方向的改变,不如说是旅程范围的扩展。人工智能一直以来都追求科学性,而现在,它必须也追求人性。人工智能应该秉承最优秀的学术传统,保持合作和敬畏,同时不惧怕直面现实世界。毕竟,星光是多样的。一旦白色的光辉展开,各种颜色就会发出耀眼夺目的光芒。