Gate 广场「创作者认证激励计划」优质创作者持续招募中!
立即加入,发布优质内容,参与活动即可瓜分月度 $10,000+ 创作奖励!
认证申请步骤:
1️⃣ 打开 App 首页底部【广场】 → 点击右上角头像进入个人主页
2️⃣ 点击头像右下角【申请认证】,提交申请等待审核
立即报名:https://www.gate.com/questionnaire/7159
豪华代币奖池、Gate 精美周边、流量曝光等超 $10,000 丰厚奖励等你拿!
活动详情:https://www.gate.com/announcements/article/47889
将您的企业数据连接到AI的最佳方式是什么?
简要概述
生成式AI正在通过使用RAG、代理式AI和集成的BI平台等工具,推动企业智能的变革,实现安全、数据驱动的规模化决策,向用户直接提供可操作的洞察,同时保护敏感信息。
生成式AI正在重写数据驱动商业战略的玩法。繁琐的流程正变得自动化和对话化,为“决策智能”的新时代铺平了道路,其特征是简单而精准地在需要的时间和地点呈现强大的洞察。这是一个AI即时揭示高管领导者快速自信决策所需趋势的世界。
在过去两年中,我们见证了AI在企业智能能力方面的巨大飞跃,但也存在一个警示。组织在接受生成式企业智能之前,必须以一种不会暴露敏感数据的方式,将AI模型连接到其高度敏感的商业数据。
向量化、RAG、MCP和代理技能等格式和协议,帮助弥合这一差距,但在这个新兴领域,还没有出现行业标准的单一解决方案。当然,将机密财务报告和个人身份信息上传到像ChatGPT这样的面向公众的AI平台,几乎和直接发布到Instagram一样不安全。
NetCom Learning的AI专家Cheryl Jones解释说:“一旦有人将电子表格输入这些服务,就无法确定何时会被泄露到公共领域。”她在一篇博客中写道:“ChatGPT的主要安全风险之一是潜在的数据无意泄露。员工可能会输入机密公司信息、客户数据或专有算法,这些内容可能会被用作模型的训练数据,或在未来的输出中暴露给其他用户。”
从RAG到丰富的BI洞察
许多组织选择不直接问ChatGPT,而是投资于创建由专有大型语言模型(LLMs)驱动、连接企业数据库的定制聊天机器人。实现这一目标的一种方法是使用“检索增强生成”或RAG技术,它通过检索和整合外部数据,动态增强LLMs的知识,提高其准确性和相关性。这是一种在不实际更改算法或训练的情况下“微调”AI模型的方法。
Binariks的产品解决方案总监Helen Zhuravel解释说:“任何成功的RAG系统实现的基础都是通过智能检索将原始数据连接到语言模型的模块化架构。这种结构使团队能够保持响应的准确性、时效性,并基于内部知识,而无需在每次更新时重新训练模型。”
但RAG并不能完全解决将数据直接输入AI聊天机器人的安全问题,也不是一个完整的解决方案。单靠RAG,LLMs仍然无法提供传统的企业智能,因为这些模型仍然设计为以对话方式输出洞察。RAG缺少传统BI平台的核心组成部分。为了生成全面、交互式的报告和仪表盘,组织还需要集成完整的业务逻辑、数据可视化引擎和数据管理工具到LLM中。
现成的GenBI一站式解决方案
幸运的是,组织还可以选择购买现成的生成式BI系统,如Amazon Q在QuickSight、Sisense和Pyramid Analytics,这些平台看起来更像传统的BI平台。不同之处在于它们与LLMs本地集成,提升了可访问性。
Pyramid Analytics采用即插即用架构,可以将第三方LLMs直接连接到Databricks、Snowflake和SAP等数据源。这省去了构建额外数据管道或特殊格式化数据的需求。为了保护敏感信息,Pyramid避免将任何原始数据发送到LLM。
在一篇博客中,Pyramid的首席技术官Avi Perez解释说,用户查询与底层数据分离,确保没有任何数据离开客户控制的环境。“该平台只传递自然语言请求和生成答案所需的上下文信息,”他指出。
例如,如果有人询问不同地区的销售和成本问题,Pyramid只会将查询和有限信息(如元数据、架构和语义模型)传递给LLM。“实际数据本身不会被传送,”Perez说。“LLM将利用其解释能力,返回一个适当的方案,Pyramid引擎随后用它来编写脚本、查询、分析和构建内容。”
其他生成式BI平台处理AI数据库连接的方式不同。QuickSight中的Amazon Q通过将所有内容保持在AWS环境中实现安全隔离。此外,Amazon承诺不会使用客户的提示和查询来训练支撑Amazon Q的底层模型,以防止数据泄露。
生成式BI平台使企业智能变得易于访问和操作。由于它们提供对话式界面,非技术用户可以使用自然语言提示与之交互,挖掘所需答案。它们还能利用AI自动构建仪表盘和可视化,帮助用户进一步探索数据。
用户甚至可以生成完整的报告和上下文摘要,将静态数据转化为可解释的故事,更容易理解趋势和异常。
以代理式BI实现可操作的洞察
为了让企业智能更具可操作性,一些组织选择应用RAG流程结合基础的“代理式AI”技术,如Agent Skills和Model Context Protocol(MCP)。目标是将BI从被动报告工具转变为自主系统,理解关键洞察,甚至根据发现执行任务。
Agent Skills指由Anthropic开发的一套模块化能力库,使AI代理能够执行特定操作,如创建PDF文件、调用特定API或进行复杂的统计计算。这些技能可以由代理在需要时激活,代表人类完成工作。
同时,MCP是一项开放的通用标准,连接LLMs与外部数据源和软件工具。它使AI代理能够以安全、结构化的方式访问实时系统和工具,无需构建定制连接器。
这些技术具有协同作用,适合企业智能的范围,结合起来创建一种新型的代理式BI工作流程。例如,如果用户问“为什么南方的销售额下降?”,代理将使用MCP拉取相关的上下文信息,如用户角色和访问权限、之前访问的报告以及来自公司CRM平台的实时数据。
然后,代理会利用RAG检索相关数据,如区域营销计划、会议记录等,以识别销售下滑的原因。找到答案后,代理会使用Agent Skills采取行动,比如生成总结报告、通知相关销售团队以及更新ERP中的预算预测。
Cisco的CMO Aruna Ravichandran对代理式BI及其在工作场所普及“连接智能”的潜力持极度乐观态度。“在这个新时代,协作变得无摩擦,”他预测。“数字员工预见需求,协调后台任务,并在问题浮出水面之前解决它们。”
尽管如此,RAG、MCP和Agent Skills仍处于试验阶段,许多人对其长期应用持怀疑态度。目前还没有建立标准框架来构建代理式BI工作流程,因此,至少在短期内,它们可能只会由拥有资源和人才的大型组织所采用。
人人都能实现AI增强的决策
在某种意义上,LLM数据访问是实现真正决策智能的最后一公里障碍,届时任何人在需要时都能获得强大的洞察。一旦突破,决策将不再局限于分析师团队或高管层,而会融入日常业务操作的方方面面。
越来越多的员工参与到战略问题解决中,这具有深远的影响。成功将企业数据与AI驱动分析整合的组织,实际上正在将企业信息从孤立资产转变为每个员工都能使用的决策语言。