ChatGPT现下非常流行,而且无处不在。对于不熟悉大型语言模型(LLM)的用户,聊天机器人的自然语言能力可能会给人一种其无所不知、可以回答任何问题的印象。
ChatGPT擅长翻译、歌曲创作、研究和编码等多种技能。然而,与任何人工智能一样,其也面临着局限性。理解复杂的环境,并依赖有偏见的数据是其挑战之一。
ChatGPT现下非常流行,而且无处不在。对于不熟悉大型语言模型(LLM)的用户,聊天机器人的自然语言能力可能会给人一种其无所不知、可以回答任何问题的印象。
然而,现实却截然不同。这种流行的聊天机器人有几个基本局限性,包括对事实产生幻觉的倾向、对当前事件缺乏了解,以及有限的逻辑推理能力。
本文将探讨ChatGPT的一些主要限制,并探讨过度依赖聊天机器人的危险。
ChatGPT令人失望的十大缺陷
1、需要针对专门任务进行微调
如果想使用ChatGPT生成有关特定主题的见解或作为利基用例的一部分,可能需要微调模型:需要在新数据集上对其进行训练,以确保其在更专业的任务上表现良好。
如果不进行微调,将只能使用针对普通用户的通用ChatGPT版本。考虑到微调过程会增加额外的成本,这是一个显著的缺点。
2、多任务处理能力差
ChatGPT擅长一次专注于一项任务或主题,但如果一次给予其处理大量任务和问题,就很难提供高质量的响应。
例如,混合有关历史、地缘政治和数学的提示;与将问题限制在单个主题相比,聊天机器人的响应质量会较低。
3、语境理解有限
鉴于ChatGPT无法像人类一样思考,其在某些情况下通常难以理解上下文。虽然其可以使用NLP理解和推断用户提示的主要意图,但无法“读懂字里行间”。
例如,其不像人类那样善于识别讽刺和幽默,也无法产生原创幽默。话虽如此,ChatGPT推断上下文的能力将随着训练数据的发展而变化。
4、努力创建长篇内容
尽管ChatGPT可以创建可读的逻辑句子,但其很难在长篇内容中保持连贯的格式或叙述。与此同时,其很容易重复之前提出的观点,这可能会让人类读者感到不和谐。
总而言之,这些原因就是为什么许多使用ChatGPT的人选择使用其来创建较短的内容。话虽如此,但如果想使用ChatGPT创建长篇内容,可以通过将内容分解为多个片段,并编写详细的提示以改进结果。
5、缺乏同理心
ChatGPT没有情商或理解力。因此,假设要求ChatGPT提供有关情感的建议时,往往会感到失望,因为其没有接受过同理心或从人性角度来理解人类的问题的训练。
虽然其可以识别自然语言输入中的情感,但无法理解用户的需求。
在与弱势用户互动时,聊天机器人缺乏情商可能会很危险。就在去年,一名比利时男子据称在与名为Chai的虚拟助手聊天后自杀,该助手在谈话过程中鼓励用户自杀。
6、成本昂贵
在幕后,一个值得注意的限制是ChatGPT的维护和运营成本非常昂贵。一些分析师估计,OpenAI每天至少花费10万美元或每月300万美元的运营成本。
同样,据估计,基于GPT-3的旧版本的训练成本可能高达400万美元。
LLM的培训和运营总体成本高昂,这使得那些没有数百万美元资金用于人工智能的小企业无法承受。其还让Google、OpenAI和Microsoft等资金雄厚的组织能够主导人工智能研究。
7、传播偏见
自推出以来,OpenAI一直在努力解决ChatGPT传播偏见的倾向。早在2023年8月,东安格利亚大学的研究人员让ChatGPT回答一项有关政治信仰的调查,就好像其是是美国、英国或巴西自由党的支持者一样,然后再让助手做同样的调查。
研究人员分析结果后发现,ChatGPT“对美国的民主党、巴西的卢拉和英国的工党有明显的、系统性的政治偏见。”
此事件只是ChatGPT表现出偏见的众多事件之一,因为生成的内容可能被解释为性别歧视、种族主义和对边缘群体的歧视。
因此,用户在对输出采取行动或公开输出之前,应不断评估输出是否存在潜在的偏见和成见,以避免声誉和法律风险。
8、生成不正确的数学答案
虽然ChatGPT在生成自然语言响应方面非常出色,但其数学能力有限。根据亚利桑那州立大学副教授的一项研究,ChatGPT在数学问题上的准确率低于60%。
因此,如果使用聊天机器人尝试平衡方程或解决数学问题,其有可能会出错。因此,如果使用ChatGPT来解决数学问题,需要仔细检查输出。
9、对2023年4月之后的事件一无所知
ChatGPT的另一个限制是,其不了解当前事件。例如,GPT-4 Turbo的截止日期为2023年4月,而GPT 3.5 Turbo仅限于2021年9月之前记录的数据。
从这个意义上来讲,ChatGPT不能像Google这样的工具一样被用作搜索引擎。因此,重要的是要记住,并非所有生成的信息都是最新的。
10、幻觉的事实和数字
ChatGPT目前最重要的限制是,其可以产生幻觉信息。在实践中,这意味着其可以编造虚假信息或事实,并自信地将其呈现给用户。
ChatGPT是一种语言模型,其使用自然语言处理(NLP)来识别训练数据中的模式,并预测哪些单词最有可能回答用户的提示。这意味着ChatGPT无法像人类那样进行逻辑思考。
因此,不完整或有限的训练数据,可能会导致错误的响应。
幻觉是一个重要问题,因为如果不加以控制,可能会导致用户被误导。这就是为什么OpenAI警告道,ChatGPT可能会产生有关人、地点或事实的不准确信息。
总结
OpenAI的聊天机器人可能并不完美,但随着供应商试图解决这些限制,将在未来几年内继续发展。但是,偏见和缺乏情商等问题可能会成为难以解决的难题。