分类: 开源项目

  • agentmemory:让AI编程代理拥有持久记忆的神器

    agentmemory:让AI编程代理拥有持久记忆的神器

    agentmemory

    说实话,用Claude Code或Cursor写代码时,最头疼的就是每次开新会话都要重新解释项目结构、代码规范和之前的决策。CLAUDE.md写满了又容易过时,这个痛点真的太普遍了。

    直到我发现了agentmemory——这是一个专门为AI编程代理打造的持久记忆系统,能自动记住一切,彻底告别重复解释。


    🎯 项目简介

    agentmemory是GitHub上排名第一的AI编程代理持久记忆工具,基于真实基准测试构建。它能 silently 捕获编程代理的所有操作,将其压缩成可搜索的记忆,在下次会话时自动注入正确的上下文。

    目前狂揽 5.9k+ Stars,今日增长超过1000 Stars,堪称年度黑马项目!


    ⚙️ 安装要求和过程

    快速开始(30秒上手):

    1. 终端1:启动记忆服务器
      npx @agentmemory/agentmemory
    2. 终端2:体验演示
      npx @agentmemory/agentmemory demo
    3. 打开 http://localhost:3113 查看实时记忆构建过程

    👍 Claude Code 用户

    一行命令搞定:

    /plugin marketplace add rohitg00/agentmemory

    /plugin install agentmemory

    👨‍💻 其他代理(Cursor/Cline/Windsurf等)

    在MCP配置中添加:

    {
      "mcpServers": {
        "agentmemory": {
          "command": "npx",
          "args": ["-y", "@agentmemory/mcp"]
        }
      }
    }

    💡 核心功能

    • 🔍 智能检索:BM25 + 向量 + 知识图谱三路混合搜索,R@5准确率达95.2%
    • 💾 4层记忆架构:Working → Episodic → Semantic → Procedural,类比人类记忆的运作方式
    • 📌 自动捕获:12个hooks自动记录所有操作,零手动操作
    • 🔒 隐私优先:API密钥、私有标签在存储前自动剥离
    • 📈 极低成本:年省约170K tokens,年成本仅$10(用本地embeddings可降到$0)

    🖥️ 典型使用场景

    📈 场景1:长期项目维护

    当你要维护一个半年前的项目时,agentmemory能自动回忆:

    • 之前为什么选择这个技术方案
    • 哪些文件被频繁修改及原因
    • 代码规范和架构决策

    👥 场景2:团队协作

    多个开发者使用同一项目,agentmemory支持命名空间隔离的团队记忆,共享知识同时保留个人偏好。

    🔋 场景3:复杂调试

    遇到之前解决过的类似bug?记忆系统能追溯到原始观察,帮你快速定位。


    ⭐ 推荐理由

    用了快一个月了,最直观的感受是:每次开新会话,Claude真的能“想起来”上次在做什么。调试效率提升明显,因为不再需要反复解释项目背景。

    最让我惊喜的是隐私保护——它会自动过滤敏感信息,这点对于企业项目非常重要。

    另外,完全零外部依赖(仅需SQLite),安装和迁移都很轻量。


    📥 下载地址

  • TradingAgents:用多智能体协作做金融交易决策,GitHub 7.3万星

    TradingAgents:用多智能体协作做金融交易决策,GitHub 7.3万星

    TradingAgents架构图

    📋 项目简介

    TradingAgents 是一个多智能体LLM金融交易框架,模拟真实交易公司的运作方式——部署基本面分析师、情绪分析师、技术分析师、交易员和风控团队等多个专业AI智能体,通过协作讨论来评估市场状况并做出交易决策。

    项目目前在GitHub上已获得 73,887 ⭐,本周新增 7,259 颗星,热度持续攀升中!🔥

    🛠️ 安装要求和过程

    环境要求

    • Python 3.10+
    • 至少一个LLM API密钥(OpenAI / Google / Anthropic / DeepSeek / Ollama等均可)
    • Alpha Vantage API密钥(用于获取市场数据,免费注册即可)

    快速安装

    # 克隆仓库
    git clone https://github.com/TauricResearch/TradingAgents.git
    cd TradingAgents
    
    # 创建虚拟环境
    conda create -n tradingagents python=3.13
    conda activate tradingagents
    
    # 安装依赖
    pip install .
    
    # 设置API密钥
    export OPENAI_API_KEY=your_key_here
    export ALPHA_VANTAGE_API_KEY=your_key_here
    
    # 启动交互式CLI
    tradingagents

    🐳 Docker用户:

    cp .env.example .env  # 填入你的API密钥
    docker compose run --rm tradingagents

    如果想用本地模型(Ollama),还可以:

    docker compose --profile ollama run --rm tradingagents-ollama

    ⚡ 核心功能

    1. 🧠 多智能体协作架构:模拟真实交易公司的团队分工,包括基本面分析师、情绪分析师、新闻分析师、技术分析师、看涨/看跌研究员、交易员、风控团队和投资组合经理,共8大角色协同工作。
    2. 🤖 多LLM支持:兼容OpenAI、Google Gemini、Anthropic Claude、xAI Grok、DeepSeek、Qwen、GLM、MiniMax、OpenRouter,还支持Ollama本地部署和Azure OpenAI等企业级方案。
    3. 💾 持久化决策日志:记录历史决策和收益表现,让智能体从过去的经验中学习,越用越聪明。
    4. 🔄 断点续跑:运行中断后可从上次成功步骤恢复,不怕意外崩溃丢失进度。
    5. 📊 交互式CLI:通过命令行界面选择股票代码、日期、LLM模型和研究深度,操作简单直观。

    🎯 典型使用场景

    1. 📈 个人投资研究助手:我平时关注几只科技股,用TradingAgents可以让多个AI分析师从不同角度评估一只股票——基本面、技术面、市场情绪一次性看全,比我自己翻研报效率高太多了。比如分析NVDA,它会自动调用基本面数据、近期新闻、Reddit讨论,然后给出综合判断。
    2. 🏫 金融AI研究实验:项目附带了学术论文(arXiv:2412.20138),如果你在做LLM+金融方向的研究,可以直接基于这个框架做对比实验、消融实验,代码结构清晰,改起来很方便。
    3. 🎓 量化交易学习与实践:想入门量化交易但又不想从零搭建系统的同学,TradingAgents提供了一个完整的端到端框架。从数据获取、多维度分析到交易决策和风控,全流程覆盖,而且支持DeepSeek、Ollama等本地模型,零成本就能跑起来。

    💡 推荐理由

    说实话,我试用过不少AI交易工具,但大部分要么太简单(单模型单任务),要么太黑盒(不知道AI为什么这样决策)。TradingAgents不一样——它的多智能体辩论机制让我印象深刻。看涨研究员和看跌研究员会针对同一只股票展开辩论,最终由交易员综合双方观点做出决策。这种机制比单一模型直接输出”买”或”卖”要透明得多,你清楚地知道决策背后的逻辑。

    另外,对国内用户很友好:支持DeepSeek、Qwen、GLM等国产模型,还区分了国内版和国际版的API密钥,Ollama本地部署也很丝滑。即使没有海外API,照样能用。

    ⚠️ 友情提醒:项目明确标注仅供研究用途,不构成投资建议。股市有风险,AI也有幻觉,千万别直接拿它的输出当交易信号。

    🔗 下载地址

  • n8n:开源自动化神器,让你的工作流程开挂

    n8n:开源自动化神器,让你的工作流程开挂

    n8n工作流自动化

    🎯 项目简介

    n8n是一个开源的工作流自动化工具,你可以把它理解为一个”数字化流水线工人”。它能帮你把各种应用和服务连接起来,自动执行一系列操作。

    支持400+应用的集成,包括Slack、钉钉、GitHub、Notion、Google Sheets、OpenAI…基本上你用到的工具它都能连。GitHub星标超过18万+


    ⚙️ 安装要求和过程

    环境要求:

    • Node.js 18+
    • 2GB+ RAM
    • 支持 Linux / macOS / Windows
    • 也可以使用 Docker 部署

    快速安装:

    1. 方式一(npm):npm install n8n -g
    2. 方式二(Docker):docker run -d --name n8n -p 5678:5678 n8nio/n8n
    3. 访问 http://localhost:5678
    4. 首次使用需要创建账号

    💡 核心能力

    • 可视化工作流:拖拽式构建,连线就是写代码
    • AI集成:原生支持AI Agent,可对接任意LLM
    • 自托管:完全私有化部署,数据不经过第三方
    • 代码执行:内置Node.js执行环境,复杂逻辑也能写
    • 定时/触发器:支持定时任务、Webhook、事件触发

    🖥️ 实用场景

    🔔 消息聚合

    把多个渠道的消息汇总到一个地方,比如把GitHub issues、钉钉消息统一推送到Slack。

    📊 数据同步

    定时把Excel里的数据同步到数据库,或者把CRM里的客户信息同步到邮件营销系统。


    ⭐ 推荐理由

    用了n8n之后,我每天省下了至少半小时的重复操作。最爽的是它支持完全自托管,公司数据一点都不不用担心泄露。


    📥 下载地址

  • Dify:一站式AI应用开发平台,小白也能玩转大模型

    Dify:一站式AI应用开发平台,小白也能玩转大模型

    Dify一站式AI应用平台

    🎯 项目简介

    Dify是一个开源的LLMOps平台,简单来说就是一个”AI应用工厂”。它把AI应用的开发、部署、运营三大环节都整合在一起,你不需要写代码,通过拖拽就能构建一个完整的AI应用。

    GitHub星标超过13万+,是国内开发者社区最火的AI应用平台之一。


    ⚙️ 安装要求和过程

    环境要求:

    • Docker 必须安装(推荐 Docker Desktop)
    • 4GB+ RAM(生产环境建议8GB+)
    • 50GB+ 可用磁盘空间
    • 支持 Linux / macOS / Windows

    快速安装(Docker 方式):

    1. 克隆仓库:git clone https://github.com/langgenius/dify.git
    2. 进入目录:cd dify/docker
    3. 启动服务:docker-compose up -d
    4. 访问 http://localhost:80 开始使用

    💡 核心功能

    • 可视化编排:拖拽式工作流,想怎么连就怎么连
    • 内置RAG引擎:上传文档就能做知识库问答
    • 一键发布API:3分钟把AI能力变成API服务
    • 运营监控:使用量统计、A/B测试、效果评估全都有
    • 多模型支持:OpenAI、Claude、本地模型…随便切换

    🖥️ 典型使用场景

    🏢 企业内部AI助手

    上传公司文档,做一个专属客服或助手,员工有问必答。

    📚 智能客服机器人

    对接产品文档和FAQ,自动回答客户问题。


    ⭐ 推荐理由

    Dify把AI应用的门槛降得太低了。以前要做一个知识库问答系统,怎么也得写几千行代码、配置一堆服务。现在?上传文档、点两下按钮,10分钟搞定。


    📥 下载地址

  • Ollama:让大模型跑在你自己的电脑上

    Ollama:让大模型跑在你自己的电脑上

    Ollama本地大模型

    🎯 项目简介

    Ollama是一个开源的本地大模型运行工具,目标很简单:让你在本地电脑上轻松跑起各种大模型。它把复杂的模型下载、环境配置、GPU驱动这些底层操作都封装好了,你只需要一条命令就能启动模型服务。

    目前支持Llama 2/3、Mistral、Gemma、Code Llama等多个热门模型,GitHub星标已经突破9万+


    ⚙️ 安装要求和过程

    环境要求:

    • macOS/Linux/Windows 系统
    • 推荐显卡:NVIDIA GPU,显存8GB以上(16GB更佳)
    • 或 Apple Silicon Mac (M1/M2/M3)
    • 16GB+ RAM
    • 50GB+ 可用磁盘空间

    安装步骤:

    1. 访问 ollama.com/download 下载客户端
    2. macOS/Linux 直接运行安装命令:curl -fsSL https://ollama.com/install.sh | sh
    3. Windows 使用 WSL2 或 Docker 方式运行
    4. 拉取模型:ollama pull llama3
    5. 启动服务:ollama run llama3

    💡 核心功能

    • 本地推理:不需要联网,数据完全在本地处理
    • 隐私保护:医疗、法律、金融这些敏感数据不用上传到云端
    • API服务:自动提供OpenAI兼容的API接口
    • 多模型切换:一个命令切换不同模型

    🖥️ 典型使用场景

    🔒 隐私敏感场景:处理客户资料、病历、法律文档时,数据不能离开本地。

    💰 成本控制:本地运行比API调用便宜太多。


    ⭐ 推荐理由

    说实话,用了Ollama之后,我的ChatGPT Plus费用都少交了很多。唯一的要求就是你得有一块好显卡,显存16GB以上体验会比较好。


    📥 下载地址