热搜词:

搬走AI应用大规模采用的绊脚石,Cyberhaven获1亿美元新融资

AI 应用蓬勃发展,让企业遇到一个新问题:员工们积极使用 AI 工具,结果导致企业内部的敏感数据泄露。

一份 AI 安全公司制作的报告显示,企业员工的 AI 工具采用率高达 23.6%,且超过 73% 的工作场所 AI 使用是通过未经授权的个人账户进行的。

该报告还发现,分享至 AI 工具的企业数据中,有 27.4% 属于敏感信息,包括源代码、客户数据以及研发材料。

发布这份报告的公司叫 Cyberhaven,它训练了一个叫大型溯源模型 ( Large Lineage Model, LLiM ) 的 AI 模型,它的产品能够精细追踪从可能从 AI 应用流出的敏感数据,实时阻止数据外泄至未经授权的 AI 工具。

这个产品让企业客户需要人工审查的事件数量减少了 90%,并且在响应与数据安全相关的安全事件时,平均响应时间(MTTR)缩短了 80%。

Cyberhaven 近日获得由 StepStone Group 领投,新晋投资方 Schroders 和 Industry Ventures 参与的 1 亿美元 D 轮融资,Khosla Ventures、Adams Street Partners 和 Redpoint Ventures 也参与了跟投,此次融资使 Cyberhaven 的估值超过 10 亿美元,一跃成为独角兽公司。

在 2024 年 6 月,它则获得了 8800 万美元 C 轮融资,参与投资的有 CrowdStrike、Cisco Systems、 Google 等企业型投资人。

掌握 AI 安全核心技术的华人创业者要让企业数据不被 AI 应用泄露

Cyberhaven 于 2016 年创立,其最初的定位是利用其预测性数据追踪技术,确保知识产权不会被泄露,现在,它正专注于 AI 驱动的安全。

Cyberhaven 的创始人兼首席执行官 Howard Ting 曾在业内一些最大的网络安全公司任职,包括 Palo Alto Networks 和 RSA。现在,他希望将 Cyberhaven 带到与它们同等的高度。

Howard Ting 表示:" 我们正以一种全新的基础性方法,构建数据安全平台,以应对企业安全团队面临的最严峻挑战。在当今 AI 驱动的世界中,数据保护必须超越传统方法和界限。我们致力于赋予企业对其数据的全面可见性与实时掌控力,无论这些数据如何转换形态或流向何方。"

在云安全公司 Wiz 被微软以 320 亿美元收购的背景下,Howard Ting 强调他们想保持自己的独立性:" 许多大型网络安全厂商都曾与我们接洽收购事宜,但我们对此不感兴趣。我们希望建立一家独立的公司。我们认为这是一个巨大的市场,并且我们拥有真正差异化的技术。"

用自研 AI 技术溯源企业内部敏感数据,让数据不再因 AI 应用的高采用外流

AI 和云技术的爆炸式增长已从根本上改变了企业内部捕获、处理和利用数据的方式。数据不再局限于文件形式;相反,它变得高度碎片化且持续流动——在端点、云平台和 AI 系统之间扩散,其方式是传统安全工具无法有效追踪或保护的。随着数据在不同应用间转换和流动,敏感信息暴露或被滥用的风险呈指数级增长。

例如,企业员工们越来越热衷于用 AI 完成工作,根据 Cyberhaven 对 300 万名企业员工工作流程分析,生成的《AI 采用与风险报告》:从 2023 年 3 月到 2024 年 3 月,AI 使用量激增了 485%。员工的 AI 工具采用率高达 23.6%,且超过 73% 的工作场所 AI 使用是通过未经授权的个人账户进行的。

该报告还发现,分享至 AI 工具的企业数据中,有 27.4% 属于敏感信息,包括源代码、客户数据以及研发材料。

Cyberhaven 能通过追踪跨不同用户和端点的数据溯源(Data Lineage)或数据生命周期来解决这一问题。数据溯源指的是追踪数据在整个组织内的起源、移动和转换过程。

Cyberhaven 的核心技术是一个叫做大型溯源模型 ( Large Lineage Model, LLiM ) 的 AI 模型,这个模型并非用语言数据集来训练,而是用数据流程数据集训练,自创立以来,Cyberhaven 的 LLiM 已经学习了其客户网络中记录的数千亿条数据流,它可以识别出哪些数据或数据流程处于风险之中,并作出解释说明。

Cyberhaven 的首席产品与开发官 Nishant Doshi 表示,公司利用一个多阶段的检索增强生成(RAG)引擎来微调其 LLiM,以分析企业最有价值的数据,并实现 " 大海捞针 " 般的精准定位。

Cyberhaven 的产品是一个叫 Cyberhaven for AI 的全面解决方案,旨在帮助企业在保护敏感公司数据的同时,安全地采用生成式 AI。

Cyberhaven for AI 的核心功能包括:

提供对整个组织内 AI 工具使用情况的全面可见性。

精细追踪流向 AI 应用及从 AI 应用流出的敏感数据。

区分企业 AI 账户与个人 AI 账户的使用。

实时阻止数据外泄至未经授权的 AI 工具。

检测并监控组织内部 AI 生成内容的使用情况。

而在 Cyberhaven for AI 中的一个核心平台是 Linea AI,在最新版本的 Linea AI 中,它不仅升级了多模态能力(可以支持对多模态数据的溯源和管理),增强了企业微调功能(企业可以更精确地自定义其安全策略),而且推出了一项叫 Let Linea AI Decide(让 Linea AI 决定)的新功能。这项功能可自主评估策略违规行为并判断事件严重性,有助于减轻安全运营中心(SOC)的警报疲劳。

具体来说,以往在处理内部风险时,安全团队成员可能每天必须手动检查上百个安全相关事件,判断它是正常业务操作,还是高风险的可疑操作,然后进行处理。

Let Linea AI Decide 这个功能的出现,让企业客户需要人工审查的事件数量减少了 90%,并且在响应与数据安全相关的安全事件时,平均响应时间(MTTR)缩短了 80%。

Cyberhaven 的客户,DailyPay 的高级安全工程师 Aaron Arkeen 举例说明了 Linea AI 的多模态能力在实际用例上的突破:Cyberhaven 的智能截图分析,一直是数据安全领域一个 " 长期存在的盲点 ",假设一个安全团队想要阻止公司机密信息通过截图外流。他们必须逐一检查成千上万张截图,以确定这只是一张无伤大雅的猫咪梗图,还是包含产品设计图的敏感截图。

Nishant Doshi 表示:" 我们试图基于所掌握的所有历史知识来预测下一步行为:这究竟是一个异常事件,还是一个良性事件。我们称之为数据洞察力,因为确实在审视数据并深度理解它。"

在客户方面,Cyberhaven 已经获得摩托罗拉,医疗保险提供商 Oscar Health ,Snowflake、SurveyMonkey、律师事务所 Cooley 等大型客户,预计 2025 年的年度经常性收入 ( ARR ) 将超过 5000 万美元。

安全问题是 AI 应用被采用的绊脚石,安全工具则是一种保障

Cyberhaven 属于数据丢失防护 ( DLP ) 供应商,它的同类竞争对手有 Trellix、Digital Guardian 和 Forcepoint 等,同时也包括 Palo Alto Networks 和 Zscaler 等基础设施安全公司。

对于下一步突破的方向,Cyberhaven 的创始人 Howard Ting 表示它们计划向数据检测与响应 ( DDR ) ,数据安全态势管理 ( DSPM ) 以及隐私与合规等领域拓展,Cyberhaven 还将与安全浏览器、EDR(端点检测与响应)和协作工具等领域的其他网络安全提供商集成,以增强对数据移动的可见性和控制力。

自 ChatGPT 发布两年多来,AI 应用在 ToC 和 ToB 两个领域都经历了蓬勃发展,不仅有 ChatGPT 这个月活数亿的超级 C 端产品,也有不少月访问量上亿的应用,更不要说今年 DeepSeek 的横空出世。

在创投市场,2024 年有 51 家 AI 公司融资超过 1 亿美元,其中就有 29 家是应用公司,今年这个比例很可能继续增加。

目前,AI 应用在 C 端的应用已经被很多用户接受,它也帮助了不少设计师,教师,程序员,律师,销售人员等提升了效率,但是 AI 在企业端的应用可能才是真正提升生产力的部分,比如进入到工业,进入到一些企业软件的核心区域。

但是一旦进入到这些领域,就会有一个问题出现,那就是使用 AI 的安全性如何?在使用 AI 的同时,是否能保证企业的核心数据,例如关键代码,客户数据,研发数据不被泄露?

所以可以说,安全问题对于 AI 应用的大规模采用,是一种障碍,而各种专门针对 AI 应用的安全工具,则是一种保障。

中国市场足够大,足够有活力,AI 应用创业者既可以直接打造全球化的应用,中国市场也足以孕育出世界级的应用,例如微信,例如抖音(Tiktok)。但 AI 能力如果要进入生产环境,进入企业的核心业务,那么它首先要足够安全,而考虑到现在的环境,中国就需要自己的 AI 安全工具,无论是针对云安全,防止模型窃取,还是数据泄露,这些都有足够大的创业需求。