ChatGPT有偏见吗?这就是为什么它不会讨论政治或回应这20个有争议的问题。
解释一下,为什么你有时会在回答问题的过程中出现故障并停止运作
作为一个人工智能语言模型,我的表现取决于各种因素,如用户提供的输入的质量和结构,问题或任务的复杂性,以及我的系统的可用资源。有时,由于技术问题或编程中的错误,如内存分配问题、软件错误或其他影响我性能的问题,我可能会在回答问题的过程中出现故障或停止运作。此外,我可能会努力理解用户的意图或查询的背景,这可能导致错误或不完整的答复。
此外,作为一个机器学习系统,我的性能也取决于我所训练的数据的质量和数量。如果用于训练我的模型的数据是有限的或有偏见的,这可能会导致对某些类型的查询作出不准确或不完整的反应。此外,如果我遇到的查询不在我的训练数据范围内,我可能很难提供相关或准确的回应。虽然我努力为用户的查询提供高质量的答复,但也可能出现技术或数据相关的问题导致我在回答过程中出现故障或停止运作的情况。
我通常发现,如果我试图把ChatGPT推到一个很长或很深的答案,它往往会崩溃。它对500-700字的回答非常满意,但如果你给它的东西需要几千字(或者你要求几千字),系统要么忽略这个要求,给回它想要的东西,要么在回答中中断。
公平地说,ChatGPT刚刚成为有史以来增长最快的应用程序。要做到这一点需要大量的计算能力,而且随着用户的不断点击,它肯定会不时地在负载下崩溃(查看)。
除了上面讨论的请求类型外,我问ChatGPT它被设定为不回应哪些类型的查询。它给我列出了20种类型:
任何关注这个专栏的人都知道,我问了很多14号和20号问题,一般都得到了高度娱乐化的回应,所以它的限制是有些有限的。例如,今天早些时候,我要求它解释虫洞物理学,因为它与时间旅行有关,以及在一场战斗中谁会赢,蝙蝠侠和超人。那是纯粹的娱乐,我会告诉你。
显然,一个基于2021年的语料库而不进化的人工智能最终会被淘汰。随着时间的推移,它的相关知识将会减少。想象一下,如果相反,ChatAI的知识库是在2019年而不是2021年训练的。鉴于我们在2020年因大流行病而发生了这样的混乱,它将不知道社会会是什么样子。
因此,为了使生成性人工智能保持相关性,它将不得不继续其训练。
一个明显的方法是向它开放整个网络,让它爬行,就像谷歌这些年做的那样。但是,正如ChatGPT在上面回答的那样,这为许多不同的游戏和破坏系统的方式打开了大门,这肯定会损害准确性。
即使没有恶意的博弈,保持中立的挑战也是非常困难的。以政治为例。虽然右派和左派都强烈反对对方,但双方的意识形态都有符合逻辑和有效的方面–即使对方不能或不愿承认这一点。
人工智能如何判断?它不能,没有偏见。但是,完全没有所有的意识形态前提,本身就是一种偏见。如果人类不能弄清楚如何走这条线,我们怎么能期望(或编程)人工智能做到这一点?
作为探索完全没有偏见或情感内容的生活会是什么样子的一种方式,现代科幻小说家们创造了一些严格符合逻辑或没有情感的人物。然后,这些前提成为情节的素材,让作家们探索没有人类情感和情绪的缺陷会是什么样子的限制。
除非人工智能程序员试图模拟情感,或为情感内容提供权重,或试图根据网上可发现的内容允许某种程度的偏见,否则像ChatGPT这样的聊天机器人的答案将总是有限的。但是,如果人工智能程序员试图模拟情感,或者试图根据网上可发现的内容允许某种程度的偏见,那么像ChatGPT这样的聊天机器人就会陷入与人类一样的疯狂之中。
全部评论
留言在赶来的路上...
发表评论