全球信息:AI伤害风险大,禁用三星,微软反驳

发布时间:2023-05-07 17:02:27 来源: 清元宇宙

· 微软高管警告:人工智能将造成“真实伤害”

· 三星禁止员工使用生成式人工智能


(资料图)

· 微软首席科学官反驳马斯克:AI开发应该加速而非“踩刹车”

01

微软高管警告:

人工智能将造成“真实伤害”

微软首席经济学家迈克尔施瓦茨周三在世界经济论坛小组会议上表示:“我相信人工智能将被不良行为者使用......它会造成真实的伤害。”

他认为这一“真实伤害”在选举中会尤为突出,“它可以在选举等垃圾邮件的发送者手中造成很大的危害。”

他对立法者发出警告的同时,认为立法者要谨慎立法,应该等到技术造成真正的伤害之后再采取行动。

他说:“监管的原则应该是,监管给我们社会带来的好处大于给我们社会带来的成本。”

目前,对于ChatGPT等工具背后的技术,英国竞争监管机构宣称将对其展开审查。AI被纳入法律和伦理等规则尺度的监管将指日可待。

02

三星禁止员工

使用生成式人工智能

近日,三星电子公司发现员工将敏感代码上传到大模型中,因而决定禁止员工使用ChatGPT、谷歌巴德和必应等生成式AI工具。该公司表示,不遵守安全准则“导致公司信息的泄露或泄露,应当纪律处分,包括终止雇佣关系”。

4月初,该公司的一名工程师将内部源代码上传到ChatGPT,意外泄漏了内部源代码。这让三星担忧其数据将通过人工智能平台最终落入其他竞争厂商手中。

这一决定主要基于数据安全考虑,三星担心发送到人工智能平台的数据存储在外部服务器上,可能存在泄露风险。

“公司内外对ChatGPT等生成式人工智能平台的兴趣一直在增长。”三星告诉员工,“虽然这些平台确实能提高效率,但我们也越来越担心生成式人工智能带来的安全风险。”

相关消息透露,三星总部正在审查安全措施,以创建一个安全的环境,安全地使用生成式人工智能来提高员工的生产力和效率。但在这些措施准备好之前,三星决定暂时限制使用生成式人工智能。

与此同时,该公司正在创建自己的内部人工智能工具,用于翻译,总结文档以及软件开发。该公司还在研究阻止公司敏感信息上传到外部服务的方法。上个月,ChatGPT增加了一种“隐身”模式,允许用户阻止他们的聊天记录被用于人工智能模型训练。

03

微软首席科学官反驳马斯克:

AI开发应加速而非“踩刹车”

近日,微软首席科学官埃里克·霍维茨针对马斯克等人呼吁暂停先进人工智能(AI)开发一事作出回应,称这方面的研发应该“加速”,而不是“踩刹车”。

他表示:“我希望看到更多的知识,甚至加速研发,而不是暂停六个月......”

3月29日,未来生命研究所发布了一封公开信,认为AI实验室在没有足够安全协议的情况下,“陷入了一场失控的开发和部署竞赛”,由此呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统至少6个月。

霍维茨对公开信及其签署者和支持者表达的尊重,也肯定了其对AI的担忧。但其认为暂停六个月的方案是一个“非常不明确的要求”。他补充道:“从更广泛的意义上说,六个月的暂停意义不大。我们真的需要在理解、指导甚至监管这项技术上投入更多,参与进来,而不是暂停。”

此前微软联合创始人比尔·盖茨也就此表达自己的态度,他同样认为,暂停研发AI的呼吁并不会解决我们面临的挑战,应该将重点放在如何最大程度地利用AI技术及其所带来的发展。

不过就在此前,有“AI教父”之称的计算机科学家杰弗里辛顿,周一宣布从谷歌辞职。辛顿称,他后悔在开发AI方面发挥了基础性作用。

辛顿关于AI风险的言论也获得了马斯克的支持。他认为“辛顿知道自己在说什么”。

回看人类的科技史会发现,人们对于新技术的“道德恐慌”并非新鲜事,也不会就此停止。

无线电技术出现时,我们曾恐慌其是否是“招魂术”;摄影刚传入中国时,其被视为是一种“摄魂术”;电话刚发明时,也曾有人指责其令人情显得冷漠......

直至当下,人工智能技术出现。这样一种强大且近似于人的智能技术被赋予了无尽的想象,既引发了乌托邦的幻想,又引发了新技术是否会颠覆既有文化秩序的担忧。

不过,任何一项技术也都是在乐观与悲观的来回拉扯之中,才明确了其应有的使用规范,从而能在人类社会合理释放其效能。

作者:蒋天昊排版:骆伟玲

图片源于Q仔互联网冲浪所得,若有侵权,后台联系,Q仔滑跪删除~

清博旗下的产品大多开放免费试用权限,想体验我们的产品,欢迎咨询~

对咱们文章有兴趣或者有意见的朋友也可以扫码勾搭Q仔哦~

想找到志同道合,相互学习进步的朋友,欢迎大家扫码进群~

转载/品牌/媒体合作

产品客服答疑

未来派对(群)

标签:

Copyright   2015-2022 时代创新网版权所有  备案号:   联系邮箱: 514 676 113@qq.com