万字长文慎入!AI 智能体架构在推理、规划和工具调用方面的现状揭秘!
—— 爽姐
TOP 级信息安全公司 10年+ 高级研发
约 4 万人 AI 社区破局俱乐部初创合伙人
破局大航海 AI 编程教练
…
【由浅到深】从神经网络原理、Transformer模型演进、到代码工程实现
阿里妹导读
阅读这个文章可能的收获:理解AI、看懂模型和代码、能够自己搭建模型用于实际任务。
开场
大模型的文章太多了,良莠不齐,要么太专业,上来一堆概念,…
图解布隆过滤器和布谷鸟过滤器实现原理
布隆过滤器和布谷鸟过滤器是两种概率型数据结构,主要用于高效的检査一个元素是否属于一个集合,但是在实现实现、性能特性和使用场景上存在一定的差异,下面我们来聊聊这两…
什么是LoRA模型,如何使用和训练LoRA模型?你想要的都在这!
什么是LoRA模型
LoRA的全称是LoRA: Low-Rank Adaptation of Large Language Models,可以理解…
Moe已成为现阶段LLM的新标准——人工智能、AI
在当前快节奏的人工智能世界中,事物来来去去,一切变化都如此之快。
大模型一直在不断的更新,也一直在不断地改进,要找到大模型演进的方向,就要找那些无处不在的改变。…
阿里RAG新框架R4:增强检索器-重排序-响应器,5个知识密集任务上都超过Self-RAG等!
大型语言模型(LLMs)在生成文本时可能会产生错误信息,即“幻觉”问题。尽管检索增强的LLMs通过检索外部数据来减少这种幻觉,但现有的方法通常不考虑检索文档与L…
必读:系统学习大模型必读的20篇论文
【引子】“脚踏实地,仰望星空”, 知其然还要知其所以然。读论文是一条重要的途径,这一篇文章https://magazine.sebastianraschka.c…
一文读懂「Lang Chain」langchain
一、什么是LangChain?
LangChain是一个强大的框架,旨在帮助开发人员使用语言模型构建端到端的应用程序。它提供了一套工具、组件和接口,可简化创建…
人工智能大语言模型微调技术:SFT 监督微调、LoRA 微调方法、P-tuning v2 微调方法、Freeze 监督微调方法
1.SFT 监督微调
1.1 SFT 监督微调基本概念
SFT(Supervised Fine-Tuning)监督微调是指在源数据集上预训练一个神经网络模型,即…
Hugging Face 超详细介绍和使用教程
文章目录
一、前言
二、可以获得什么?
三、入门实践
3.1 帮助文档
3.2 安装
3.3 模型的组成
3.4 BERT模型的使用
3.4.1 导入…
LLM Agent工作流中Prompt精华解析
在与大模型交互的过程中,提示词是很关键的,也是成本最低解决幻觉的有效方法。所以一定要给它一些Example,在没有一个不包含Example,结果往往是不理想的。…
万字长文:Stable Diffusion 保姆级教程
2022年绝对是人工智能爆发的元年,前有 stability.ai领域的ChatGPT级的杀手产品——它使用超级简单、完全开源免费,生成的图片以假乱真、震惊四座…
让天下没有难Tuning的大模型-PEFT技术简介
最近,深度学习的研究中出现了许多大型预训练模型,例如GPT-3、BERT等,这些模型可以在多种自然语言处理任务中取得优异的性能表现。而其中,ChatGPT模型因…
使用Ollama和Go基于文本嵌入模型实现文本向量化
基于RAG+大模型的应用已经成为当前AI应用领域的一个热门方向。RAG(Retrieval-Augmented Generation)将检索和生成两个步骤相结合…
程序员系统入门大模型的路径和资源,看这篇就够了
本篇文章面向对大模型领域感兴趣,又不知如何下嘴的程序员。
看一下围绕大模型的应用场景和人才需求:
Prompt工程:
基于提示词对大模型的使用,会问问题就行。…
关于垂类场景下RAG 的思考
写在前面
今天这篇文章不是分享某个技术点也不是分享论文,而是笔者抛砖引玉的提出一些垂类下关于RAG 的瓶颈和一些思考,然后广发英雄帖,感兴趣的读者都可以加入进来…