Eliza 的架构主要分为 3 个部分: - 最上层抽象成了 Provider 和 Evaluator 以及 Action ,分别对应人类获取信息的能力(眼睛获取视觉信息,耳朵获取听觉信息等等),以及人类根据信息的执行能力,还有 Evaluator 类似人类的思考能力,通过思考从海量的信息中提取知识从而形成个人的认知。 - 最下层是不同的 AI Model:目前 Eliza 框架支持了市面上大多数 AI Model,如 openai、claude、gemini、gork、xai 等等,类似人类大脑,是所有做出决策的关键处理模块。 - memory 则是让通过 Eliza 框架启动的 Ai Agent 拥有跳出 Content Limitation 限制的能力,因为 AI 既可以在 Provider 阶段把从环境中获取的信息和 Action 执行后结果的信息压缩之后存储进入 Memory 之中;也可以通过 Evaluator 提取跟人类对话或者其他任意交互过程中一些关键信息。 Provider 主要用来解决在一些信息我们通过 prompt 让 AI 获取不准确也不够全面的问题,因为我们现在使用的模型都是通用大模型,所以对特定领域的信息获取有时候会存在不够全面的问题。为了保证获取数据的顺畅性,在 Eliza 的框架里会这部分获取数据的代码封装到 Provider 的定义下。 Eliza 框架如何让 AI 调用 Action:下面就是 Eliza 框架中,一个在用来让 AI Model 在 Pumpfun 中创建一个 meme 代币并且买入一定价值的该 meme 代币的 Prompt Example。当我们在对应的 Action 中给出这些 Example 之后,AI Agent 就知道,之后跟人类的交互过程中出现类似的内容的时候就会因为我们提供的这类 Promt Exapmle 知道要调用执行哪个 Action。\n原文链接