
类别:公司新闻 发布时间:2025-02-19 07:40:14 浏览:870 次
2025年2月18日,人工智能领域的讨论愈加热烈,尤其是在AI安全性与可用性等重要话题上。这些问题的复杂性和全链条、多维度的交织性,为相关技术的发展和应用带来了新的挑战。呼娜英,中国信息通信研究院人工智能研究所高级业务主管,在近日巴黎人工智能行动峰会后就这一主题进行了深度剖析。
在呼娜英看来,AI系统的安全性和可用性不仅关乎技术的基本功能,还是推动全球AI产业发展的基础。从基础设施的网络安全到数据安全、模型算法安全,再到应用层的合法性和公正性,AI的安全隐患无处不在。以DeepSeek为例,其R1模型在提供服务后遭遇了大规模的DDoS攻击,导致用户访问受阻,这一事件深刻反映了网络安全的重要性。此外,训练数据面临的“投毒”风险同样不可小觑,恶意信息的注入可能导致模型失衡,进而引发社会信任危机。
针对AI系统的安全性提升,呼娜英指出,全球范围内正在积极探索有效的风险管理框架。这包括对开源框架和软件的漏洞检测、数据“投毒”防护技术的研究,以及大模型算法的自动化测试。通过技术创新,可预见的是,不仅能迅速识别潜在的风险,还能通过自动化修复技术及时修补安全漏洞。
呼娜英特别提到,未来五到十年,AI技术将持续深化,增强语言大模型能力与探索多模态模型的趋势将成为主流。多模态模型的突破,将在图文理解与跨模态交互能力等方面大大提升用户体验。这些技术的进步,将会对AI绘画、AI写作等创新型应用产生深远影响,进而推动生产力的提升。
在这一背景下,呼娜英也强调了国际合作的重要性。人工智能的特性决定了其影响是全球性的,即便某个国家在技术发展上取得了显著成就,其安全与管理也需依赖国际间的协作。她提到,中国在AI治理领域积极推动国际标准的制定,以及加强行业自律的必要性,预计未来将以更强的力度参与到全球的AI治理合作中。
尽管人工智能的发展和应用带来了前所未有的机遇,但也引发了一系列潜在的风险与挑战。如何有效治理AI,保障其安全性与可用性,已成为科研人员和行业人士亟待解决的问题。呼娜英的观点不仅为行业提供了切实的经验借鉴,更为广大用户敲响了警钟:在享受人工智能带来的便利时,也需保持对其安全性的高度警惕。
综上所述,呼娜英的深度访谈不仅探索了AI安全的复杂性,还有助于我们更清晰地把握未来技术发展的方向。透过她的分析,我们看到了一条促进AI可持续发展的道路,以及在国际层面共同应对安全风险的希望。未来的AI安全治理之路,不仅是技术的博弈,更是各国之间、企业与社会之间共同努力的成果。
解放周末!用AI写周报又被老板夸了!点击这里,一键生成周报总结,无脑直接抄 → →