大语言模型做数据助手,浙大Data-Copilot高效调用、处理、可视化数据

2023-07-05 20:05 468 阅读 ID:1214
机器之心
机器之心

金融、气象、能源等各行各业每天都会生成大量的异构数据。人们急切需要一个工具来有效地管理、处理和展示这些数据。


近日,浙江大学提出 DataCopilot,通过部署大语言模型 (LLMs) 来自主地管理和处理海量数据,即它连接不同领域(股票、基金、公司、经济和实时新闻)的丰富数据,满足多样化的用户查询,计算,预测,可视化等需求。  

Repo: https://github.com/zwq2018/Data-Copilot

Arxiv: https://arxiv.org/abs/2306.07209

Demo: https://huggingface.co/spaces/zwq2018/Data-Copilot

只需要输入文字告诉 DataCopilot 你想看啥数据,无需繁琐的操作,无需自己编写代码,DataCopilot 自主地将原始数据转化为最符合用户意图的可视化结果,因为它可以自主地帮你找数据,处理数据,分析数据,画图,无需人类协助。

许多研究已经探索了 LLMs 的潜力。例如 Sheet-Copilot、Visual ChatGPT、Audio GPT 利用 LLMs 调用视觉,语音等领域工具进行数据分析、视频编辑和语音转换。从数据科学的角度来看,表格、可视化和音频都可以被视为一种形式的数据,所有这些任务都可以被看作是与数据相关的任务。因此,一个新的问题出现了:在通用数据的背景下,LLMs 能否构建自动化的数据科学工作流来处理各种与数据相关的任务?为了实现这一目标,需要解决几个挑战:

  • 从数据角度看:直接使用 LLMs 读取和处理海量数据不仅不切实际,而且存在数据泄露的潜在风险。
  • 从模型角度看:LLMs 不擅长处理数值计算,可能没有合适的可调用外部工具来满足多样化的用户需求,从而限制了 LLMs 的利用率。
  • 从任务角度看:尽管 LLMs 展示了强大的少样本能力,但许多与数据相关的任务是复杂的,需要结合多个操作,如数据检索、计算和表格操作,并且结果需要以图像、表格和文本等多种格式呈现,这些都超出了当前 LLMs 的能力。


因此,为了实现的囊括数据相关任务的通用框架,研究提出 Data-Copilot:

Data-Copilot 是一个基于 LLM 的系统,用于处理与数据相关的任务,连接了数十亿条数据和多样化的用户需求。它独立设计接口工具,以高效地管理、调用、处理和可视化数据。在接收到复杂请求时,Data-Copilot 会自主调用这些自设计的接口,构建一个工作流程来满足用户的意图。在没有人类协助的情况下,它能够熟练地将来自不同来源、不同格式的原始数据转化为人性化的输出,如图形、表格和文本。

主要贡献

  • 设计了一个通用的处理数据相关数据的智能系统,将不同领域的数据源和多样化的用户需求连接起来,通过将 LLM 集成到整个流程中,减少了繁琐的劳动和专业知识。
  • Data-Copilot 实现自主管理、处理、分析、预测和可视化数据。当接收到请求时,它将原始数据转化为最符合用户意图的信息性结果。
  • Data-Copilot 作为设计者和调度者,包括两个过程:接口工具的设计过程 (设计者) 和接口工具的调度过程 (调度者)。
  • 基于中国金融市场数据构建了 Data-Copilot Demo。

主要方法

Data-Copilot 是一个通用的大语言模型系统,具有接口设计和接口调度两个主要阶段。

  • 接口设计:研究设计了一个 self-request 的过程,使 LLM 能够自主地从少量种子请求生成足够的请求。然后,LLM 根据生成的请求进行迭代式的设计和优化接口。这些接口使用自然语言描述,使它们易于扩展和在不同平台之间转移。
  • 接口调度:在接收到用户请求后,LLM 根据自设计的接口描述和 in context demonstration 来规划和调用接口工具,部署一个满足用户需求的工作流,并以多种形式呈现结果给用户。


Data-Copilot 通过自动生成请求和自主设计接口的方式,实现了高度自动化的数据处理和可视化,满足用户的需求并以多种形式向用户展示结果。

接口设计

如上图所示,首先要实现数据管理,第一步需要接口工具。
Data-Copilot 会自己设计了大量接口作为数据管理的工具,其中接口是由自然语言(功能描述)和代码(实现)组成的模块,负责数据获取、处理等任务。

  • 首先,LLM 通过少量的种子请求并自主生成大量请求 (explore data by self-request), 尽可能覆盖各种应用场景。
  • 然后,LLM 为这些请求设计相应的接口(interface definition: 只包括描述和参数),并在每次迭代中逐步优化接口设计 (interface merge)。 
  • 最后,研究利用 LLM 强大的代码生成能力为接口库中的每个接口生成具体的代码 (interface implementation)。这个过程将接口的设计与具体的实现分离开来,创建了一套多功能的接口工具,可以满足大多数请求。

如下图:Data-Copilot 自己设计的接口工具用于数据处理:

接口调度

在前一个阶段,研究获取了用于数据获取、处理和可视化的各种通用接口工具。每个接口都有清晰明确的功能描述。如上图所示的两个查询请问,Data-Copilot 通过实时请求中的规划和调用不同的接口,形成了从数据到多种形式结果的工作流程。

  • Data-Copilot 首先进行意图分析来准确理解用户的请求。
  • 一旦准确理解了用户的意图,Data-Copilot 将规划一个合理的工作流程来处理用户的请求。Data-Copilot 会生成一个固定格式的 JSON,代表调度的每个步骤,例如 step={"arg":"","function":"", "output":"","description":""}。

在接口描述和示例的指导下,Data-Copilot 在每个步骤内以顺序或并行的方式精心安排接口的调度。
如下图例子:

Data-Copilot 自主设计了工作流如下:

针对这个复杂的问题,Data-Copilot 采用了 loop_rank 这个接口来实现多次循环查询。
最后该工作流并执行后结果如下:  

                                横坐标是每只成分股的股票名字,纵坐标是一季度的净利润同比增长率

实验结果

预测工作流

部署工作流:获取历史 GDP 数据 ----> 采用线性回归模型预测未来 -----> 输出表格

并行工作流

 结论

研究提出了一个通用的框架,Data-Copilot,用于处理各种数据相关任务。它作为连接众多异构数据和人类之间的桥梁,根据人类的喜好有效地管理、处理和展示数据。Data-Copilot 通过将 LLMs 整合到数据相关任务的每个阶段中,根据用户的请求将原始数据自动转化为用户友好的可视化结果,显著减少了对繁琐劳动和专业知识的依赖。 


像一位经验丰富的专家一样,Data-Copilot 自主设计了适用于各种类型数据和潜在用户需求的通用接口工具,并在实时响应中调用这些接口,为用户请求部署清晰的工作流程。接口设计和调度这两个过程完全由 Data-Copilot 控制,几乎不需要人的干预。


研究提供了一个中国金融版的 Data-Copilot, 它可以灵活处理与股票、基金、经济、公司财务和实时新闻等方面的复杂请求,是一个可靠的人工智能助手。  

免责声明:作者保留权利,不代表本站立场。如想了解更多和作者有关的信息可以查看页面右侧作者信息卡片。
反馈
to-top--btn