FT商学院

没有透明度,AI监管就无从谈起

沙克:人工智能公司的实力越来越强大,但它们对数据和算法的保密程度也越来越高,这使得研究人员无法评估其模型的安全性。

本文作者是斯坦福大学(Stanford University)网络政策中心(Cyber policy Center)国际政策主任、欧盟委员会(European Commission)特别顾问

几乎每天都有关于如何监管人工智能的新提议:研究机构、安全部门、模仿国际原子能机构(IAEA)打造“人工智能领域的IAEA”……这个名单还在不断变长。所有这些建议都反映出人们迫切希望做些什么,即使对于应该“做些什么”并没有达成共识。当然,这个问题关系到很多方面,从就业和歧视到国家安全和民主。但是,鉴于政治领导人对人工智能知之甚少,他们真的能制定出必要的政策吗?

这并不是对政府人员知识空白的低级抨击。就连技术专家也对大型语言模型(LLMs)的行为模式抱有严重疑问。今年早些时候,纽约大学(NYU)教授萨姆•鲍曼(Sam Bowman)发表了《关于大型语言模型要知道的八件事》(Eight Things to Know about Large Language Models)一文,这篇令人瞠目结舌的文章揭示这些模型的行为往往难以预测,专家们也没有可靠的技术来指导它们。

您已阅读27%(478字),剩余73%(1293字)包含更多重要信息,订阅以继续探索完整内容,并享受更多专属服务。
版权声明:本文版权归manbetx20客户端下载 所有,未经允许任何单位或个人不得转载,复制或以任何其他方式使用本文全部或部分,侵权必究。
设置字号×
最小
较小
默认
较大
最大
分享×