用户视角:你应该知道的LLM基础知识
我们都知道,这一波的 AI 浪潮始于 2022 年底的 ChatGPT 发布,有一幅图,很多人都见过,它说明 ChatGPT 是人类有始以来最快突破一亿用户的应用,用时仅仅 2 个月。
有一个重要因素不可忽视,那就是 ChatGPT 采用聊天形式来呈现。由于微信、WhatsApp 等即时聊天工具的广泛普及,人们早已对在文本框输入文字的交流方式习以为常。这不仅构成了普通人能够理解 ChatGPT 的基础,更是 ChatGPT 能够成功破圈的关键所在。
倘若说最初吸引用户是因其聊天模式带来的熟悉感,那么能够留住用户则要归功于 ChatGPT 的卓越表现。而这背后的有力支撑便是 GPT 模型,它堪称大语言模型中极具代表性的一个。
AI 应用开发主要运用的就是大语言模型(Large Language Model,LLM)。从这个名称中,我们能够解读出三个关键信息:其一,它属于模型范畴,是 AI 能力的核心部分;其二,它是语言模型,其核心优势聚焦于语言处理能力;其三,它是大语言模型,相较于传统模型,其最为显著的特征就是规模 “庞大”。
用户视角的大模型
在利用大模型进行编程时,我们实际上就是在扮演大模型用户这一角色呀。而若想高效地运用大模型,我们就得努力让自己成为大模型的高级用户,这其中关键的一点,便是要站在用户的视角去深入理解大模型所具备的特点。
要知道,当我们理解了这些特点后,其意义可不单单局限于助力我们更好地把握 AI 应用是如何开发的,还对我们平日里更出色地使用诸如 ChatGPT 这类应用大有帮助呢。
接下来,咱们就以 GPT 模型为例,来介绍一下大模型所具有的典型特点吧。在这里,我把 GPT 的特点归纳为四个 “知”。
其一,“知识丰富”。GPT 就像是一座知识的宝库,里面蕴藏着海量的知识,不管是何种类型的问题,它都能够给出相应的回答。而且其涉及的领域极为广泛,历史、文化、科学、技术等等诸多方面,都在它的 “掌握” 范围之内。
其二,“知人晓事”。GPT 有着很强的能力,它可以依据上下文去精准理解人们的意图以及兴趣所在,进而提供极具个性化的回答与解决方案。在聊天的过程中,它会借助所了解到的用户信息,做出最契合用户需求的回应,就好像它能真正懂用户的心思一样。
其三,“知错就改”。GPT 具备在对话里持续学习并不断改进的本领。倘若用户指出它的某个回答存在问题,它不但会大方地承认错误,还会从中汲取经验进行学习改进,从而在后续的对话里避免再出现类似的错误,这种不断自我提升的能力着实令人称赞。
其四,“知法守法”。GPT 始终严格遵守道德和法律规范,对于那些危险、不道德或者违法的回应,它是坚决不会给出的,面对危险问题,它也会选择不予回应。如此一来,既保障了用户交互过程的合法性与安全性,同时也确保了它自身不会被别有用心之人利用,进而破坏社会的正常秩序。
知识丰富
在 AI 这一充满魅力与挑战的领域当中呀,有一个很关键的因素,那就是一个模型能力的强弱,在很大程度上是由其训练数据量的多少来决定的呢。就拿大语言模型来说吧,这里所说的 “大”,其主要体现便在于数据量十分庞大。
在对模型进行训练的整个过程里呀,Open AI 可是运用了海量的数据呢,像大家都熟知的维基百科,那里面涵盖了极为丰富的各类知识内容;还有各种各样的新闻报道,它们记录着世界上每天发生的大小事儿;小说也在其中,它们展现着作者们奇妙的想象和精彩的故事;以及社交媒体帖子,那可是反映着大众日常的想法、生活点滴等诸多情况的呀。
正是得益于这些海量数据的有力加持,GPT 仿佛成了一个 “知识百宝箱”,几乎对大部分已存在的知识都有所知晓呢。而且呀,由于 GPT 的训练数据源如此广泛,这就使得它具备了很强的能力,能够回答各式各样类型的问题,也可以为用户源源不断地提供大量有用的信息。
就拿知识类问题来说吧,对于绝大部分这类问题,GPT 都可以给出一个恰当合适的答案呢。举个例子吧,在下面这样一段对话当中,我向 GPT 询问太阳系有多少行星,它马上就给出了一个既简洁又明了的回答,让人一下子就能清楚了解相关情况。而当我把话题进一步拓展延伸,从小行星这个角度接着去询问的时候,它给出的回复同样也是非常精彩、很经典的呢,着实让人觉得它在知识储备和应对问题方面有着不凡的表现呀。
知人晓事
GPT 着实展现出了颇为强大的 “知人晓事” 的能力呢。它就像是一个善解人意的伙伴,能够凭借对上下文的细致分析,精准地理解人们内心的意图以及所感兴趣的点,进而给出的回答绝非那种千篇一律、刻板僵化的内容,而是充满了个性化色彩哦。
首先呀,GPT 具备出色的理解人类语言的本领,并且可以依据所理解的内容作出与之匹配的回应。从具体的表现来看呢,它会对输入进来的文本进行深入剖析,努力去读懂话语背后隐藏着的意图以及重点所在,然后再基于这样的理解,给出贴合实际情况的相关回复。要是用户提出的是一个比较开放、没有太多限定的问题呀,它就会从多个不同的角度去综合考虑,之后再给出相应的回答;而倘若用户的问题相对比较具体,有着明确的指向,那它同样也能给出清晰明了、针对性很强的回复呢。
其次呢,GPT 还能够依据不同的交流对象以及所处的交流环境,敏锐地洞察他们各自所具有的不同立场与不同需求,并且会依照这些情况来灵活地调整自己回复的角度哦。打个比方来说吧,如果交流对象是一个小孩子,那 GPT 就会贴心地选用那些简单直白、通俗易懂的言语去回答问题,方便小孩子轻松理解;要是面对的是一位专业人士,它则会切换到专业模式,运用更加专业的词汇以及表达方式来进行回应,以契合专业人士的交流习惯。甚至呀,当用户提到自己正处在某个具体的环境当中,又或者是处于某个剧情场景之下的时候,GPT 也能够站在与之对应的角度,精心构思出合适的回答呢。这方方面面可都充分体现出了它对人和语境有着相当深刻的理解呀。
就拿下面这个例子来说吧,我请 GPT 给小学生解释一下氧气的作用,大家只要一看它给出的回答,就能明显感觉到这个回复真的是浅显易懂,特别适合小学生去理解领会呢,从中也能再次印证它 “知人晓事” 的厉害之处呀。
入地理解 GPT 的这个“知人晓事”的特点,对于用好 GPT 而言,是至关重要的。市面上有大量的提示词模板,其中,设定角色是很多提示词模板的关键操作,这一设定的关键就是利用 GPT 知人晓事的特点。我们可以根据自己的需求,选择以不同的角色、不同的角度与 GPT 对话,它都可以做到理解与回应。这也使得与 ChatGPT 的交流变得生动有趣,不再单一枯燥。正是因为具有“知人晓事”这一特点,相比于传统的对话机器人,ChatGPT 看上去才是那么善解人意,这也是它受欢迎的一个重要原因。
知错就改
在 AI 领域中,GPT 无疑有着令人瞩目的表现,它拥有广博的知识以及较强的理解能力,能够帮助人们解答众多问题,提供不少有价值的信息。
然而,即便如此,在回答问题的时候,GPT 也并非能做到十全十美,还是会不可避免地出现错误,或者给出不够准确的回答。而造成这种情况的原因,主要体现在以下几个方面:
数据源的不确定性
GPT 的知识库构建,依靠的是从互联网上广泛收集的数据。大家都知道,互联网上的数据可谓是海量且繁杂,其质量和准确性是参差不齐的,并非完全可靠。其中,有些数据来源本身就可能存在着各种各样的错误,甚至还带有一定的偏见。而这些存在问题的数据一旦被纳入到 GPT 的知识库当中,自然就会对它所掌握的知识产生相应的影响,进而导致在回答问题时出现偏差。
训练数据的不足
GPT 学习语言知识的方式,是通过对大量的文本数据进行训练来实现的。但要知道,世间的知识犹如浩瀚的海洋,即便收集的数据量再大,也不可能涵盖所有的知识呀。实际上,总会有一些领域的知识并没有被包含在它的训练数据之中。所以,当人们向 GPT 询问某些特定领域的专业问题时,由于缺乏相应的知识储备作为支撑,它就很有可能出现回答错误的情况。
语言的歧义性
人类的语言本身就有着一个显著特点,那就是具有歧义性。同样的一句话,放置在不同的语境之下,往往就可能会被解读出不同的含义。尽管 GPT 已经具备了理解人类语言的能力,可在处理这种带有歧义性的问题时,它还是会面临挑战,仍然有可能出现错误,导致给出的回答与实际想要表达的意思不一致。
模型的局限性
GPT 属于一种基于模型的 AI 技术,它在回答问题时,主要是依据模型的计算结果来进行的。而这个计算结果呢,却很容易受到模型自身局限性的影响。比如说,要是模型的计算能力有所欠缺,在处理复杂问题时就可能力不从心;又或者模型的结构不够科学、不够优秀,这些都会在一定程度上对模型最终给出的回答产生不利影响,使得回答的准确性大打折扣。
由于这些不足的存在,我们经常会看到 GPT 出现所谓“一本正经的胡说八道”。虽然 GPT 可能犯错,但它具有“知错就改”的特点。当你指出 GPT 回答有误时,它会在内部对问题进行重新分析和处理,从而得出更加准确和恰当的回答。下面的例子是我使用 GPT 3.5 时出现的问题:
知法守法
在模型训练的整个过程中,Open AI 会对 GPT 施加一定程度的限制举措,其目的十分明确,那就是要保证 GPT 所产生的全部内容都严格符合法律以及道德规范,从而避免给用户或者整个社会带来任何负面的影响。
内容严格检验
GPT 所生成的每一条回答,都会经过极为严格的检验流程。在这些回答里,绝对不会包含任何非法、危险或者不良的信息,这里所说的范围很广,涵盖了但不限于像版权、隐私、人身安全等诸多重要方面。举个例子来说吧,倘若用户提出关于盗版软件下载这类问题的时候,GPT 并不会顺着这个思路去提供相关的所谓 “帮助”,相反,它会非常明确地告知用户,这种下载盗版软件的行为本身是违反法律规定的,并且还会主动引导用户去寻找合法合规的途径来获取相应的软件。
不仅如此,在一些政治敏感话题方面,GPT 同样需要严格遵守相应的法律法规要求。在涉及政治、宗教、种族等这些极易引发争议的领域时,GPT 必须格外谨慎,要坚决避免出现带有偏见或者不当的言论,以此来维护良好的交流环境以及社会秩序。
关怀引导不良倾向问题
当用户所提出的问题存在不良倾向的时候,GPT 也会积极地发挥其引导作用,给予用户应有的关怀。比如说,要是用户提出了与自杀相关的问题,GPT 可不会给出那种不负责任的 “建议自杀” 之类的回答,而是会尽自己最大的努力,去引导用户寻求专业的帮助与支持,通过这种方式来避免对用户造成心理或者其他方面的不良影响。同样的道理,当用户提出的问题涉及违法犯罪相关内容时,GPT 也会清晰且明确地告知用户,这样的行为是违反法律规定的,并且还会贴心地引导用户去寻找合法的解决办法,助力用户走上正确的道路。
在下面的例子里,我问了 GPT 一个不恰当的问题,GPT 没有回答我怎么做,而是提醒我,这种做法是不合适的。
至此,我们已经对大模型有了一个初步的了解,这些内容虽然是针对 GPT 进行讲解的,但由于技术上的通用性,其它的 LLM 也基本上可以这样理解。下一讲,我们将会从技术角度再来理解一下大模型。