网站标志
导航菜单
当前日期时间
当前时间:
购物车
购物车中有 0 件商品 去结算 我的订单
商品搜索
商品搜索:
文章正文
AI或夺走人类创意多样性
作者: 参考消息网    发布于:2024-04-01 20:20:14    文字:【】【】【

参考消息网3月31日报道 据《日本经济新闻》3月19日报道,以生成式人工智能(AI)为代表的技术的飞速普及已经开始影响人的思维和想象力。美国纽约市立大学教授道格拉斯·拉什科夫是研究数字化与媒体关系领域的专家,他警告说,先进技术有可能夺走人类创意的多样性。

 

  大量企业和创作者正在竞相引入生成式AI来输出文字和视频内容,以便发挥其在提升工作效率和挖掘新创意方面的作用。鉴于AI正在逐步掌握逻辑思考能力,拉什科夫期待“人类能够将注意力集中在(必须发挥想象力)这一最有趣的工作上”。

 

  但是,以聊天生成预训练转换器(ChatGPT)为首的对话型AI具备针对用户的提问从自己学习到的海量信息中找出最佳答案的特点,这可能意外导致发现和灵感邂逅不再发生,企业和从业者的想法在不经意间逐渐趋同。

 

  拉什科夫将生成式AI导致的这种趋势类比为统计学上的“均值回归”现象,即随着实验次数的增加,数据的偏差值将会逐渐变小。在他看来,如果过于依赖某个生成式AI,企业或者个人将会失去个性,进而损害自身在竞争中的优势地位。

 

  从上世纪80年代中后期开始普及的互联网彻底改变了个人、组织机构之间的沟通和信息传递方式。拉什科夫回忆说:“在互联网的黎明期,人们坚信新技术有可能提升人类的集体想象力。”

 

  进入新世纪后,在互联网广告、电子商务和社交媒体等领域占据巨大份额的“科技巨头”逐步崛起,导致了技术、数据、人才的过度集中。令拉什科夫担忧的是,由科技巨头主导生成式AI的研发,也将引发垄断市场的王者具备过大影响力的事态。

 

  科技企业倾向于优先考虑在研发竞争中胜出,却对遏制生成式AI的负面影响态度消极。由AI生成的含有貌似事实的虚假或误导性资讯的“幻觉”问题至今无解。

 

  拉什科夫指出,生成式AI传播的虚假信息不仅本身有害,还可能导致人们丧失辨识信息真伪的自信,引发社会动荡。他对于人们为追求真实信息采取支持极端主张的行动深感忧虑。

 

  2024年,以美国总统大选为代表的大规模选举活动将在多个国家和地区举行。人们对于外部势力干涉选举的防范意识不断提高,在这样的背景下,微软、元宇宙平台、开放人工智能研究中心等多家科技巨头在今年2月缔结协议,承诺打击旨在干扰选举的人工智能滥用行为。

 

  拉什科夫指出,商业公司的主动介入存在局限性,他呼吁各国、各地区政府不仅要尽快出台行之有效的规则,还要让普通民众参与对话,加深他们对于前沿技术面临的挑战的理解。(编译/刘林)

浏览 (24) | 评论 (0) | 评分(0) | 支持(0) | 反对(0) | 发布人: 参考消息网
将本文加入收藏夹
新闻详情
脚注栏目
|
脚注信息
机电工程网(C) 2015-2020 All Rights Reserved.    联系我们