科技特约评论

专家称AI“模型幻觉”将成新型社会隐患,呼吁构建监管体系

来源: 特约评论发布时间: 2025年8月27日 05:08(上海时间)
点赞 0
专家称AI“模型幻觉”将成新型社会隐患,呼吁构建监管体系

随着人工智能的广泛应用,其带来的风险也日益凸显。近期,《关于深入实施“人工智能+”行动的意见》发布,专家表示需要高度重视AI中的“模型幻觉”,并呼吁加快构建有力有效的监管与安全防护体系。

近日,国家发展改革委发布了《关于深入实施“人工智能+”行动的意见》,其中提到在人工智能应用过程中可能出现“所答非所问”和“模型滥用、误用”的情况。对此,专家表示,这些问题需要通过构建有力有效的监管与安全防护体系来解决。

国家发展改革委创新驱动发展中心主任霍福鹏在采访中指出,要推动人工智能技术不断迭代完善,尽可能消除模型幻觉等潜在风险。这包括提高数据质量、优化模型算法等方面的努力。同时,也需要加快完善人工智能相关法律法规体系,健全人工智能应用风险预警和应急处置等管理制度,以提高人工智能应用的透明度和可信赖度。

霍福鹏主任还强调,大力发展开源开放生态,对于促进数据跨境流动、设备自由贸易和设施互联互通具有重要意义。这不仅有助于维护产业链供应链的安全稳定,也推动人工智能向善发展。专家认为,随着人工智能在各个领域的深入应用,其带来的影响将愈发深远,因此,需要社会各界共同努力,构建一个安全、可靠的人工智能应用环境。

据悉,未来《人工智能+》行动方案还将重点关注人工智能技术的伦理问题。随着人工智能越来越多地参与到人类决策过程中,其带来的伦理挑战也日益凸显。因此,有必要进一步加强对人工智能应用中的伦理审查,确保人工智能技术的发展与应用能够遵循人类的价值观念和道德原则。

相关标签

科技社会法律

参考链接:查看