人工智能生成代码的巨大威力和潜在危险
2021 年 6 月,GitHub 宣布了 Copilot,这是一种由 OpenAI 文本生成技术提供支持的计算机代码自动完成功能。它提供了生成式人工智能在自动化有价值的工作方面的巨大潜力的早期一瞥。两年过去了,Copilot是该技术如何承担以前必须手工完成的任务的最成熟的例子之一。
本周,GitHub发布了一份报告,该报告基于近一百万付费使用Copilot的程序员的数据,展示了生成AI编码的变革性。平均而言,他们接受AI助手的建议的时间约为30%,这表明该系统非常擅长预测有用的代码。
(资料图片仅供参考)
上面的引人注目的图表显示了用户在使用该工具花费更多时间时如何倾向于接受更多 Copilot 的建议。该报告还得出结论,人工智能增强的编码人员看到他们的生产力随着时间的推移而提高,基于之前Copilot研究报告接受的建议数量与程序员生产力之间的联系。GitHub的新报告称,经验不足的开发人员的生产力提升最大。
从表面上看,这是一幅令人印象深刻的新技术迅速证明其价值的画面。任何提高生产力和提高低技能工人能力的技术都可能对个人和更广泛的经济都是福音。GitHub继续提供一些粗略的猜测,估计到2030年,人工智能编码可以使全球GDP增加万亿美元。
但是GitHub的图表显示程序员与Copilot的联系让我想起了我最近在与伊利诺伊大学厄巴纳-香槟分校教授Talia Ringer聊天时听到的另一项研究,关于程序员与Copilot等工具的关系。
去年年底,斯坦福大学的一个团队发表了一篇研究论文,研究了使用他们构建的代码生成AI助手如何影响人们生成的代码质量。研究人员发现,获得人工智能建议的程序员倾向于在他们的最终代码中包含更多的错误,但那些能够访问该工具的人倾向于认为他们的代码更安全。“可能既有好处也有风险”,与人工智能一起编码,Ringer说。“更多的代码不是更好的代码。
当你考虑编程的本质时,这个发现并不奇怪。正如克莱夫·汤普森(Clive Thompson)在2022年《连线》杂志的一篇专题中写道,Copilot似乎很神奇,但它的建议是基于其他程序员工作中的工作模式,这可能是有缺陷的。这些猜测可能会产生非常难以发现的错误,尤其是当您被该工具通常的好坏所迷惑时。
我们从其他工程领域了解到,人类可能会过度依赖自动化。美国联邦航空管理局一再警告说,一些飞行员变得如此依赖自动驾驶仪,以至于他们的飞行技能正在萎缩。类似的现象在自动驾驶汽车中也很常见,在自动驾驶汽车中,需要格外警惕,以防止罕见但可能致命的故障。
这个悖论可能是生成式人工智能发展故事的核心,以及它将把我们带到哪里。这项技术似乎已经在推动网络内容质量的螺旋式下降,因为信誉良好的网站充斥着人工智能生成的渣滓,垃圾邮件网站激增,聊天机器人试图人为地提高参与度。
这并不是说生成式人工智能已经破产。越来越多的研究表明,生成式人工智能工具如何提高一些员工的绩效和幸福感,例如那些处理客户支持电话的员工。其他一些研究也发现,当开发人员使用AI助手时,安全漏洞不会增加。值得称赞的是,GitHub正在研究如何在AI的帮助下安全地编码的问题。二月份,它宣布了一项新的Copilot功能,试图捕获底层模型生成的漏洞。
但是,代码生成的复杂影响为致力于为其他用例部署生成算法的公司提供了一个警示故事。
对人工智能表现出更多关注的监管机构和立法者也应该注意。由于人们对这项技术的潜力感到如此兴奋,以及对它如何接管世界的疯狂猜测,人工智能部署如何运作的更微妙但更实质性的证据可能会被忽视。我们未来的几乎所有东西都将以软件为基础——如果我们不小心,它也可能充斥着人工智能生成的错误。