RAG年终总结之12篇综述:从2022到2024看架构、策略、评测及演化
今天是2024年12月13日,星期五,北京,天气晴。
今天,我们继续来看看RAG。
参考了2022-2024三年来的12个RAG综述,共12个综述文章,设计评测…
四、Stable Diffusion 文生图/图生图-如何写提示词(prompt)
(slot:series,id=sd&type=post)
一、什么是提示词(prompt)
提示词就是提供给AI用于描述画面的词语。不论用哪个模式生…
神经网络算法 – 一文搞懂Transformer
(slot:series,id=transformer)
本文将从Transformer的本质、Transformer的原理、Transformer架构改…
神经网络算法 – 一文搞懂 Transformer(总体架构 & 三种注意力层)
(slot:series,id=transformer)
本文将从Transformer的本质、Transformer的原理、Transformer的…
神经网络算法 – 一文搞懂Embedding(嵌入)
(slot:series,id=transformer)
本文将从Embedding的本质、Embedding的原理、Embedding的应用三个方面,带…
Transformer动画讲解 – 注意力机制
(slot:series,id=transformer)
Transformer注意力机制
从端到端的角度来看,数据在Transformer中的流转可以概括…
神经网络算法 – 一文搞懂Attention(注意力)机制
(slot:series,id=transformer)
本文将从Attention的本质、Attention的原理、Attention的应用三个方面,带…
Transformer动画讲解 – Cross Attention
(slot:series,id=transformer)
Cross Attention
编码器-解码器注意力:在“编码器-解码器注意力”层中,查询来自…
Transformer动画讲解 – 单头注意力和多头注意力
(slot:series,id=transformer)
单头注意力和多头注意力
Transformer的起源:Google Brain 翻译团队通过论…
神经网络算法 – 一文搞懂Self-Attention和Multi-Head Attention
(slot:series,id=transformer)
随着Transformer模型的迅速普及,Self-Attention(自注意力机制)和Mult…
Transformer动画讲解 – 注意力计算Q、K、V
(slot:series,id=transformer)
注意力计算Q、K、V
Transformer的起源:Google Brain 翻译团队通过论文…
Transformer动画讲解 – 数据处理的四个阶段
(slot:series,id=transformer)
Transformer数据处理的四个阶段
Transformer模型是一种基于自注意力机制的神…
Transformer动画讲解 – Softmax函数
(slot:series,id=transformer)
Transformer的Softmax函数
Transformer的Softmax函数:用于将原始…
Transformer动画讲解 – 多层感知机制
(slot:series,id=transformer)
Transformer多层感知机
从端到端的角度来看,数据在Transformer中的流转可以…
神经网络算法 – 一文搞懂FFNN(前馈神经网络)
(slot:series,id=transformer)
本文将从FFNN的本质、FFNN的原理、FFNN的应用三个方面,带您一文搞懂 Feed-forw…
神经网络算法 – 一文搞懂GPT(Generative Pre-trained Transformer)
(slot:series,id=transformer)
本文将从GPT的本质、GPT的原理、GPT架构改进三个方面,带您一文搞懂Generative Pre…
Transformer动画讲解 – 工作原理
(slot:series,id=transformer)
Transformer工作原理
一、 GPT的核心是Transformer
GPT :GPT(Gene…
Ubuntu22.04 安装 stable-diffusion-webui
一、前言
在将日程上的NVIDIA驱动以及CUDA、cuDNN安装完毕后,接下来终于可以安装 stable-diffusion-webui,进行我的跑图实验了,…