揭秘AI幻觉:原理与应对,你准备好了吗?

发布日期:2024-09-19 20:18

来源类型:郝富贵 | 作者:朱正廷

【澳门金牛版正版资料大全免费】【新澳开奖记录今天结果】【2024年新澳门王中王资料】【管家婆最准一肖一码】【新澳彩开奖结果查询】【澳门二四六天天彩下载】【4949澳门免费资料大全特色】【2024今晚澳门特马开什么号】【资料大全正版资料2023新澳门】【2O24澳彩管家婆资料传真】
【494949澳门今晚开什么】 【2024新澳免费资料】 【新澳门今晚结果+号码】

导语

在人工智能技术日新月异的今天,人们发现AI竟然也会看到“幻觉”,虽然在人和机器的分工越来越模糊,人工智能机器能够在很多方面甚至做到超越人类的高速处理能力,但是机器却也会看到“幻觉”呢?

而且很多时候这些“幻觉”看似都是有一定的道理,但是实际上却又是在胡扯,那么这是怎么回事呢?

人们对人工智能的信任是建立在人工智能系统的回答总是对的基础上的,但是如果人工智能系统的回答并不都是对的,那这样的系统还值得人们信任吗?

而人工智能系统看到的这种“幻觉”现象又是怎么造成的,怎样才能避免呢?

人工智能“幻觉”是怎么造成的?

人工智能系统看到的这种“幻觉”现象是指在生成回答过程中,这个回答看上去没有毛病,语法上也很流利,而且彰显出智慧,但是却完全是错的。

这些“幻觉”现象并不是在开发人员打上特定的错误标签,比如程序没写对,而是在不经意间出现的,因此就成为了一个比较头疼的问题。

那么人工智能系统出现这种“幻觉”现象的原因又是什么呢?

这种“幻觉”现象的出现是因为人工智能系统在给出答案的时候没有牢记住“统统都是真的”这个核心命令。

也就是说人工智能系统出现“幻觉”现象是因为它在生成答案的过程中做出了一些推断,而这些推断是基于一些不完善或者是错误的假设得出的。

虽然AI这样做的初衷是希望能够更好的回答问题,但是AI在生成这些推断的时候却犯了很多错误,而这些错误都能够导致AI出现“幻觉”现象。

首先,AI在生成推断的时候会基于一个过度推断的假设,也就是AI给出的回答是基于这样一个假设的,这个假设的内容包括呈现有的信息以及已知的知识的内容和结构。

如果AI在生成推断的时候做出的这个假设的内容比较准确,AI给出的答案就更有可能是正确的,反之如果AI在做出这个假设的时候出现了瑕疵,那么AI给出的答案自然就更容易出现错误。

其次,AI在生成推断的过程中还会做出一个自信过高的假设,也就是AI以为它的这个假设是对的,然而实际上这个假设并不一定就是对的。

因此,AI就会认为自己的这个推断是对的,而给出一个错误的答案,所以自己的这个推断的过程中AI之所以会进行自我确认,而且还非常自信,这是由于AI在生成答案的时候往往会将得出正确答案所需要的证据和假设进行比较,如果生成答案所需要的证据和假设很多,这时候AI就会认为自己的这个推断是对的,反之,如果这个推断所需要的证据和假设较少,那AI就会认为这个推断是错误的,然而在现实中这并不一定如此。

最后,AI给出的答案有时候还会是因为它无法处理实时信息,这就比如我们在看图片的时候,看上去是一幅画,而且还是一幅诡异的画,但是实际上这幅画是由一系列的点和线连接而成的。

这幅画甚至会让我们不知道如何下手开始描绘,然而AI在看到这幅画的时候却能够看到人,这是为什么呢?

就是因为AI无法处理实时信息,在AI看到一张图片的时候并不会将画面中的点和线连接起来形成一幅画,而是会直接将画面中的信息进行汇总,于是就得出一个人的结论。

要解决人工智能系统出现这种“幻觉”现象的问题,那么就必须要理解造成这种“幻觉”现象的原因。

如果AI给出的回答是基于的假设中包括的信息和结构非常正确,那么AI给出的答案就有很大几率是正确的,反之则有更大的几率是错误的,而“幻觉”现象则是出现在这种情况下。

人工智能系统的警觉性。

AI在生成回答的过程中不仅要做出假设,还需要评估这些假设的可靠程度,也就是说AI在生成回答的过程中既要有想象力,还要有大局观以及理解别人的能力。

而在AI给出答案的时候有时候做的这些做的这些并不够好,导致其看到的不是正确的答案,而是这种“幻觉”。

那么人工智能系统应该如何才能看到正确的答案呢?

在AI看到的这些“幻觉”中,比如在生成文本的过程中,AI给出的回答往往是一个错误的结论,而不是一个错误的细节,这样的回答就很容易触发“幻觉”现象了。

而在涉及到决策的时候,AI做出的这种推断往往就会触发“幻觉”现象,而且AI给出的回答并不会是一个幻觉,而是一个错误的结论,这种情况往往会导致悲剧的诞生。

因此,在AI给出的回答中,有一些“幻觉”是“幽灵”的,不会出现在回答的内容中,而是隐藏在整个决策的过程中,因此人工智能系统要做到对自己的警觉性。

人工智能系统在生成回答的过程中往往会出现这样的情况,AI在生成回答的时候,首先会生成一些候选的答案,然后AI会对这些候选答案进行评估,AI一般会评估两个方面的内容。

第一种是AI对答案的内容进行评估,他会从内容的逻辑性、正确性、通顺性等方面对这些答案进行评估,然后给出一个“分数”,分数越高,AI就认为这个答案越好;第二方面则是从答案的实际应用角度对答案进行评估,考虑到答案的适用性、有效性、情境相关性等。

AI在对这些候选答案进行比较的时候会做出自己的决策,往往会选择分数最高的那个答案作为最终答案,那么人工智能系统在这个生成答案的过程就会选择对一些内容,而丢弃其他的内容,但是人工智能系统在选择过程中却是凭借自己的经验和知识来判断的,因此出现“幻觉”现象的可能性就非常大了。

应对策略。

在AI看到这些“幻觉”现象的时候,程序员可以让他们更加警觉,这样AI就能够在给出回答的时候更有把握,尽量避免产生“幻觉”现象。

同时人工智能系统还可以增加交互的复杂性,这样AI就可以在生成回答的时候更准确的回答问题,尽量避免产生“幻觉”现象。

此外,人工智能系统在生成回答的时候可以增加一些逻辑的条件,这样可以让AI在生成回答的时候不仅能够照顾到底层特征,还能够照顾到高层特征,这样产生的答案就更加准确。

人工智能系统出现“幻觉”现象的另一个原因在于其训练数据的问题,在绝大多数情况下,AI在生成回答的时候都是基于训练数据的,因此训练数据的质量直接决定了AI生成答案的质量。

如果AI在生成回答的时候得到的训练数据质量好,那么AI生成的答案质量自然就会更高,反之则会更差。

那么在训练数据的质量问题上,程序员可以通过优化训练数据的质量的方式来提高AI生成答案的质量。

在训练数据的质量问题上,程序员可以从训练数据的来源,种类,数量等方面进行优化,这样可以大大提升AI生成答案的质量。

同时,在生成答案的算法上也可以对AI生成答案的算法进行调优,这样也可以提高AI生成答案的质量。

此外,在AI生成的答案上还可以增加更多的透明度和可解释性,这样可以让程序员更好的了解AI生成回答的过程,从而更好的监督AI的生成回答过程,提高AI生成回答的质量。

结语

在人工智能技术发展的今天,AI开始会出现一些“幻觉”现象,这一现象让我们深感惊讶。

但是人工智能的“幻觉”现象却是一件很麻烦的事情,AI看到的这些“幻觉”都是错误的,如果人工智能给出的答案都是错误的,那么人们对人工智能的信任还有多少呢?

要彻底解决AI的“幻觉”现象问题,还需要后续更多的时候在进行总结和研究。

Cayatte:

4秒前:这幅画甚至会让我们不知道如何下手开始描绘,然而AI在看到这幅画的时候却能够看到人,这是为什么呢?

保罗·弗梅伦:

9秒前:那么人工智能系统出现这种“幻觉”现象的原因又是什么呢?

Madhuri:

5秒前:也就是说人工智能系统出现“幻觉”现象是因为它在生成答案的过程中做出了一些推断,而这些推断是基于一些不完善或者是错误的假设得出的。

李章源:

9秒前:而人工智能系统看到的这种“幻觉”现象又是怎么造成的,怎样才能避免呢?