The real reason people are scared of AI
人工智能(AI)迅速崛起为一种变革性力量,重塑行业、提高效率并创造机会。然而,它也引发了恐惧,许多人开始担心这一新兴技术的更广泛影响。AI会危及我们所知的人类吗?全球立法者通过法律和警告表达了担忧,指出与AI相关的几种潜在噩梦情景。本文将探讨AI可能对社会和人类构成风险的六种重要方式,并考虑减轻这些危险的措施。
Understanding the basics of AI
首先,让我们澄清什么是AI。尽管它的复杂性,AI归结为一种通过分析大量数据集自我学习解决任务的软件。与传统编码不同,传统编码中人为编写明确的指令,而AI系统则评估大量数据,寻找模式,并做出决策——这些任务类似于人类智能所做的,但以“人工”的形式表现出来。
这种自学习机制通常被称为“黑箱”,因为即使是其创造者有时也难以完全理解AI如何得出某些结论。尽管这些系统具有显著的潜力,它们的不确定性使其变得十分危险。
现在,让我们深入探讨AI可能对人类造成的六大主要危险。
1. Predictive policing: The dystopian future of law enforcement?
第一个噩梦情景涉及预测性警务,这一概念在电影《少数派报告》中广为人知。想象一个世界,执法单位不再等待犯罪的发生,而是利用AI预测谁可能犯罪,基于大量数据。虽然这听起来高效,但它引入了对公民自由和隐私的重大风险。
国际公认的AI专家Carme Artigas警告,这种方法可能导致不公正的监视和错误逮捕。AI依赖生物特征数据,如面部识别、声音和动作——许多国家政府已经在收集这些数据。然而,这为侵犯个人权利的监视系统敞开了大门。更糟糕的是,算法有时会出错,例如在底特律,AI错误地将一名男子识别为小偷,导致他错误入狱。
作为回应,欧盟AI法案已使预测犯罪的AI使用变得非法,并强调仅应根据实际行为评判个人。然而,全球范围内关于AI在执法中角色的辩论仍在继续。
2. Elections: Undermining democracy
民主制度严重依赖信任——对选举过程、信息的完整性以及系统本身的信任。随着深度伪造等技术的兴起,AI生成的合成媒体用于操控舆论,这种信任正面临着威胁。深度伪造创造了政治家说或做未曾发生的事情的视频,播下混乱和虚假信息的种子。
虽然当前的深度伪造技术通常可以被检测到,但其完善的速度令人震惊。例如,AI生成的机器人电话误导选民或合成视频显示篡改的选票的情景,可能破坏公众对民主制度的信任。更糟糕的是,暴露在被操控内容下可能导致人们对所有看到的信息产生不信任,这一现象常被称为“真相衰退”。
为应对这一挑战,加州最近出台了法律,要求YouTube和Facebook等平台标记或删除与选举相关的深度伪造媒体。在全球层面,欧盟AI法案要求合成媒体的创作者加入不可见水印,使软件能区分真实与虚假。
3. Social scoring: From freedom to control
另一个令人恐惧的AI潜在应用是社会评分,它根据个人的在线行为、金融交易或与政府的合规程度为个人分配分数。这样的系统可能会歧视并惩罚个人,导致失去工作、贷款甚至基本服务的机会。
中国的社会信用体系是一个显著的例子,而社会评分的元素在西方社会中也已经存在,例如美国的信用评分。危险之处在于,这些机制可能扩展,剔除更多个人数据,加剧工作、晋升或教育机会中的社会不平等。即使是由AI驱动的大学录取也无法幸免——尽管其旨在消除人为偏见,AI系统也从所训练的数据中继承了偏见。
为了减轻这一威胁,欧洲采取了坚定立场,禁止任何形式的AI驱动社会评分,任何将个人按其社会互动进行排名或分类的行为。此类措施反映出将AI系统与核心人权和自由相一致的重要性。
4. AI and nuclear weapons: A high-stakes gamble
最具科幻色彩的情景之一涉及AI导引的核武器。虽然流氓AI发射导弹的想法像《终结者》中的Skynet一样不太可能,但AI驱动的军事决策已经成为现实。防御中的AI系统分析庞大的数据网络,增强态势感知,但可能发生灾难性错误的潜力仍然存在。
例如,AI可能将军事测试或部队移动误解为即将发生的攻击,导致紧张局势升级,甚至自主发起报复行动。这一前景促使美国迅速立法,通过了“禁止自主AI发起核袭击法案”,禁止AI自主启动核攻击。
然而,AI导引武器并不只与核武器有关。以色列和乌克兰等国在战术作战决策中已开始实施AI,这在现代战争中的问责问题上引发了疑问。
5. Critical infrastructure: When AI fails us
水、电、交通等关键部门日益通过AI算法来提高效率和降低成本。这并不是 inherently 坏事。例如,一个AI运行的水处理厂可以优化资源使用,防止浪费。然而,当出现问题时,风险变得显而易见。
想象一下,由于故障的AI传感器引发的水污染危机,或因软件更新出错导致全市交通瘫痪。这些脆弱性凸显了将基本服务交由不透明的AI系统管理的危险,在这些系统中,AI的“黑箱”特性使得识别和解决故障变得具有挑战性。
为了保护社会福祉,立法者呼吁提高管理关键基础设施的AI系统的透明度。企业必须展示强有力的网络安全措施和风险评估,同时允许对其机器学习算法的审查。
6. Optimism for the future: Responsible AI can transform lives
尽管存在这些风险,AI改善人类生活的潜力依然具有变革性。AI系统可以彻底改变医学研究和农业等领域,预测疾病、发现新药物和优化资源使用。它们可以通过监测土壤健康和改善食物生产实践来帮助应对气候变化,减少农药和化肥对环境的危害。
关键在于制定有效的立法,正如Carme Artigas所强调的,努力在利用AI的好处与减轻其风险之间找到平衡。通过前瞻性治理和伦理保障,我们可以实现一个AI提升人类而不是威胁人类的未来。
Conclusion: Preparing for an AI-driven future
AI无疑正在改变世界,从其日常应用到其深远的社会影响。然而,伴随这一非凡力量而来的还有非凡的责任。这些风险——预测性警务、选举操控、社会评分、AI驱动的战争,以及关键部门潜在的失效——要求保持警惕的监管和监督。
但还有希望的理由。通过深思熟虑的立法、透明度和伦理治理,AI可以帮助人类应对最大的挑战,并为创新解锁新的可能性。
让我们在拥抱AI的承诺的同时,保持对其危险的警惕。毕竟,AI的未来不仅关乎机器——还关乎人类在面对新的技术前沿时的能力。