DeepSeek漏洞凸显了集中式人工智能漏洞

领先的人工智能平台渊知(DeepSeek)目前深陷一起重大数据泄露事件,这引发了专家和分析师对集中式人工智能模型安全性的警觉。此次数据泄露事件揭示了集中式系统固有的潜在漏洞,这类系统存在单点故障风险,因而容易受到未经授权的访问,导致敏感用户数据泄露。

 

知名计算机科学家、人工智能专家本・戈策尔博士(Dr Ben Goertzel)对此事发表了看法,强调了去中心化人工智能系统的优势。戈策尔博士表示,虽然去中心化数据库本身并不能解决人工智能面临的所有难题,但它们有助于构建一个更安全、更具问责性的人工智能基础设施。他指出:“去中心化数据库并不会自动解决人工智能的所有问题,但它们确实能推动我们朝着一个更安全、由用户掌控且抗审查的人工智能生态系统迈进。” 这种转变有可能通过减少单点故障、加强数据所有权和隐私保护,来降低与数据泄露相关的风险。

 

尽管渊知作为 OpenAI 的 ChatGPT 的有力竞争对手,逐渐获得关注,但不幸的是,这种热度引来了网络犯罪分子,他们企图利用该平台的用户。卡巴斯基(Kaspersky)网络安全公司的高级网页内容分析师奥尔加・斯维斯图诺娃(Olga Svistunova)报告了多起诈骗企图,其中包括创建虚假的渊知网页,旨在窃取用户凭证。据斯维斯图诺娃称,许多用户在渊知平台的注册过程中遇到问题,恶意行为者趁机创建模仿合法页面的欺诈页面,诱骗用户泄露个人信息。

 

斯维斯图诺娃建议用户谨慎行事,仔细检查收集账户凭证的网址以确保其真实性,借助密码管理器使用独特且强大的密码,并在可行的情况下启用双因素身份验证。强烈建议在所有设备上使用可靠的网络安全解决方案,以防止凭证丢失并降低恶意软件威胁。

 

渊知的这一事件还引发了积极技术公司(Positive Technologies)对恶意开发者冒充渊知官方工具的担忧。威胁行为者一直在分发伪装成该人工智能平台 Python 客户端的信息窃取程序,旨在从毫无防备的开发者那里获取数据。

 

钴蓝(Cobalt)网络安全公司的首席技术官冈特・奥尔曼(Gunter Ollmann)认为,此类攻击手段因其实效性和实施难度不断降低而日益猖獗。奥尔曼评论道:“我认为这种趋势会持续下去,一方面是因为事实证明这些攻击手段很成功,另一方面是因为实施起来越来越容易。” 人工智能辅助恶意软件开发的兴起,使攻击者能够精心策划个性化且复杂的攻击,突破传统安全措施。

 

围绕渊知发生的这一系列事件,不仅凸显了当下实施强大网络安全措施的紧迫性,也引发了对集中式与去中心化人工智能系统长期可持续性的质疑。随着研发工作的不断推进,构建安全、以用户为中心的人工智能架构对于保护用户以及增强对人工智能技术的信任至关重要。
免责声明:文章内容不代表本站立场,本站不对其内容的真实性、完整性、准确性给予任何担保、暗示和承诺,仅供读者参考,文章版权归原作者所有。如本文内容影响到您的合法权益(内容、图片等),请及时联系本站,我们会及时删除处理。查看原文

为您推荐