本周晚些时候,来自世界各地的人们将齐聚一堂,参加由英国主办的人工智能安全峰会。 峰会简报已经发布,内容详实,全面概述了人工智能的现状及其风险。
本文以通俗易懂的语言描述了 ChatGPT 等大型语言模型 (LLM) 的工作原理。首先,程序会猜测句子中的下一个词。起初,它的猜测完全是随机的,但随着它分析数百万甚至数十亿条对话,很快就会建立起一个复杂的概率模型,使其发音听起来非常像人类。这就是 ChatGPT 的本质。
如果将 ChatGPT 与“脚手架”(连接到其他技术,以便这些模型可以驱动软件,例如网络浏览器)结合起来,那么到 2023 年,你就站在了人工智能研究的前沿。
该报告概述了各种风险,并谨慎地避免陷入“天网要来了”之类的科幻小说式的描述。它讨论的是目前人工智能面临的风险。
它重点强调了以下几点:
- 市场集中度是一个重大风险。目前,开发新的语言模型需要强大的计算能力和博士级别的人才,这对谷歌来说比对一家车库创业公司来说容易得多。
- 如果你觉得之前的假新闻、虚假信息等等已经够糟糕了,那就准备好迎接升级版吧。这项技术可以源源不断地制造出听起来非常逼真的新闻和信息。仅仅是虚假信息的数量就足以对环境造成破坏。
- 劳动力市场动荡。换句话说,就是人们失业。文档里有一张很不错的图表,举个例子来说,据估计,40%的法律工作可以由人工智能完成。如果有人在法律教育上投入了几十万美元,那么想做其他事情就相当困难了,但这正是人们将要面临的困境。
- 模型中的偏见和歧视。我认为这一点论证得不够令人信服,但它已被广泛讨论。
- 衰弱。报告虽然没有使用这个词,但它指的是人类将控制权交给人工智能系统,却无力或不愿收回控制权。这并非“天哪,我们关不掉它,它正在发射核导弹”这种危言耸听的情况,而是更常见的问题,比如人力资源系统自动筛选简历,而人们不愿再回到人工筛选,因为成本太高。
这份报告内容翔实,引人入胜,值得一读——我推荐大家阅读。