1、常见工作流

  • Anthropic 的研究突出了工作流(Workflow)和智能体(Agent)之间的一个关 键区别,即工作流指 LLM 和相关工具通过显式预定义的代码路径进行编排的系统。 这意味着操作序列、工具或 LLM 调用的条件以及整体任务执行流程都由开发者预先确定。相反,Anthropic 概念中的真正智能体具有更高程度的自主性。它们指的是由 LLM 动态指导自身流程的系统,能够实时决策工具的使用及实现目标所需的步骤。这类智能体始终掌控任务的执行过程,会根据输入和环境反馈调整方法,而非严格遵循预设路径。Anthropic 所识别和阐明的这些工作流模式,为在 LangGraph 中构建复杂的 AI 智能体系统提供了宝贵的框架。工作流和智能体之间的主要差异如图所示。

Read more »

1、create_react_agent

  • LangGraph 作为 AI 智能体开发框架,在灵活性和功能性方面展现出独特优势。 该框架不仅支持高度定制化的智能体架构开发,同时为快速原型设计和开发者入门提 供了便捷工具。其中,create_react_agent 函数作为预构建组件,实现了 ReAct(推理— 行动)模式的快速部署,显著降低了开发门槛。本节将演示 create_react_agent 的核心功能、自定义选项,以及如何在更广泛的 LangChain 生态系统中无缝集成。
Read more »

1、短期记忆与长期记忆

  • 要创建真正智能且实用的 AI 智能体,关键在于为其配备能够模仿人类认知特性的记忆系统。正如人类利用短期记忆和长期记忆来进行有效的互动和学习一样,AI 智能体也同样需要利用记忆来演进,如图所示。本节将探讨 LangGraph 框架中短期记忆和长期记忆的作用及其在构建 AI 智能体中的协同效应。

  • 短期记忆与长期记忆的共存必要性源于智能交互的多维特性。试想,如果 AI 智能体只能记住刚发生的对话,或者不加区分地记住所有信息而忽视当前交流重点,那 么都将导致对话效果大打折扣。这两种极端情况都无法实现有效的智能交互。

Read more »

1、流式处理

  • 在 AI 智能体领域,用户体验至关重要。无论智能体的推理能力多么复杂或功能多么强大,若其响应缓慢,则难以满足用户的期望。现代用户已经习惯数字交互的即时性。他们同样期望 AI 智能体敏捷响应,实时提供反馈并展示进度。这对于对话式智能体或需要实时生成文本、代码等内容的应用来说尤其重要。大语言模型 (LLM) 和复杂人工智能工作流中固有的延迟问题,对实现期望的响应水平构成重大挑战。完整的输出需要长时间等待,这可能会导致用户感到沮丧、放弃,并认为 AI 智能体运行缓慢或不可靠。

  • 流式处理技术能克服延迟问题,显著提高 AI 智能体的感知响应速度。流式处理 不是等待整个输出生成完毕后再显示给用户,而是允许以分块的方式逐步交付信息。 这种即时反馈循环创造了一种实时交互感,让用户在智能体生成完整响应的过程中保持参与。例如,聊天机器人逐字显示回复,模仿人类对话,或者报告生成智能体实时显示已完成部分,都体现了流式处理如何将耗时过程转变为动态体验。

Read more »

1、核心概念

  • LangGraph 的核心在于其简洁而强大的状态图结构,这一模型的基石由四个核心原语构成:状态(State)、节点(Node)、边(Edge)和命令(Command)。可以将这四个核心原语比作搭建智能体系统的基础模块,只有理解它们的概念及其相互作用方式,才能构建出功能强大的 AI 智能体系统。
Read more »

1、LangGraph简介

  • 与传统的线性流程或树状结构截然不同,LangGraph 采用了状态图结构来设计 AI 智能体的工作流,将 AI 智能体执行任务的过程抽象为一个由节点(Node)和边 (Edge)构成的有向循环图(Directed Cyclic Graph,DCG)。这种状态图结构不仅 赋予了 LangGraph 框架极大的灵活性,更使其能够有效地构建状态化(Stateful)和 多智能体(Multi-agent)的复杂 AI 应用,从而应对传统框架难以企及的挑战。

  • 下图展示了 LangGraph 核心架构,它由节点(Node)、边(Edge)和状态(State) 组成。节点代表工作流中的计算单元,边定义节点之间的流向,状态则用于在节点之间传递和共享信息。

Read more »

1、Retrieval模块的设计意义

  • Retrieval直接翻译过来即“检索”,本章Retrieval模块包括与检索步骤相关的所有内容,例如数据的获 取、切分、向量化、向量存储、向量检索等模块。常被应用于构建一个“企业/私人的知识库”,提升大 模型的整体能力。

1.1 大模型的幻觉问题

  • 拥有记忆后,确实扩展了AI工程的应用场景。
  • 但是在专有领域,LLM无法学习到所有的专业知识细节,因此在面向专业领域知识的提问时,无法给出可靠准确的回答,甚至会“胡言乱语”,这种现象称之为LLM的“幻觉”
  • 大模型生成内容的不可控,尤其是在金融和医疗领域等领域,一次金额评估的错误,一次医疗诊断的失误,哪怕只出现一次都是致命的。但,对于非专业人士来说可能难以辨识。目前还没有能够百分之百解决这种情况的方案。
  • 当前大家普遍达成共识的一个方案:
    • 首先,为大模型提供一定的上下文信息,让其输出会变得更稳定。
    • 其次,利用本章的RAG,将检索出来的文档和提示词输送给大模型,生成更可靠的答案。
Read more »

1、理解Agents

  • 通用人工智能(AGI)将是AI的终极形态,几乎已成为业界共识。同样,构建智能体(Agent)则是AI工程应用当下的“终极形态”。

  • 将 AI 和人类协作的程度类比自动驾驶的不同阶段:

Read more »

1、Tools概述

1.1 介绍

  • 要构建更强大的AI工程应用,只有生成文本这样的“纸上谈兵”能力自然是不够的。工具Tools不仅仅是“肢体”的延伸,更是为“大脑”插上了想象力的“翅膀”。借助工具,才能让AI应用的能力真正具备无限的可能,才能从“认识世界”走向“改变世界”。

Read more »

1、Memory概述

1.1 为什么需要Memory

  • 大多数的大模型应用程序都会有一个会话接口,允许我们进行多轮的对话,并有一定的上下文记忆能力。

  • 但实际上,模型本身是不会记忆任何上下文的,只能依靠用户本身的输入去产生输出。

    image-20251018135526548
Read more »