3月15日时文讨论: 如何看待AI“一本正经胡说八道”
-
问题1:我有遇到过AI幻觉。我问AI陈从周修复豫园的设计理念,它告诉我理念之后还给了我一张豫园的照片,但是图片上却有一个在水中的类似于菩萨的雕像,我觉得很奇怪,就问它,它告诉我这是在点春堂景区,但点春堂没有面积较大的水和雕塑,为了确保准确我就问它点春堂有没有雕塑,它却告诉我没有,这就矛盾了。我觉得AI出现幻觉是因为AI会注意我们问题中的关键词,条件,关联词等,根据高质量训练集的内容进行总结模仿写出答案,但是它并不理解关键词的意思,只是模仿写出看似合理的答案这其中会有它自己瞎编的内容。因为这一点我觉得AI不是特别智能。
问题2:通过文本,我了解到让AI不出错其实是不可避免的,毕竟它不理解词语的意思,为了减少它胡说八道的情况就要把问题问清楚而不是给它一个比如“理念”的大概念。我有两个问题:第一,为什么在AI给出总结模仿后的答案前,不先根据自己的数据库来搜索一下自己的答案是不是瞎编的,它的数据库肯定是足够大的?第二,为什么AI对同一个问题的回答不一样,这样胡说八道的可能性就更大? -
⒈你在使用ai时,有没有遇到过“al幻觉”?根据文章,ai幻觉产生的原因是什么?你觉得ai有没有智能?
有。有一次我写了一首小诗,发现里面有些字不太合适,就问deepseek“柳芽”有什么别称,发现别称是对的,但是佩的诗词出处却是混乱的。根据文章,我觉得ai出现幻觉是因为它并不是一个单纯的帮助你快速寻找正确答案“资源库”,而是有创造性的,由于训练时只是给它一个数据库,训练ai组织语言,所以它并没有真正像人一样理解词意,仅是将词语与常用的另一些词语关联起来,目前还没有做到真正的“智能”。
⒉ 这篇文章有没有解决你对于AI的困惑?假如有机会,你会问AI领域的专家什么问题?
并不完全。这几篇文章让我理解了ai是一个“生成式”的,且不理解词意,纠正了我之前对ai是“无所不知的数据库”的错误认知。但是也带起了我的疑惑:
⑴ 既然ai出现幻觉,降低温度虽能消除幻觉,但又会让ai失去额外价值,那么将来会有办法找到两全其美的方法吗?
⑵用户输入什么内容会对ai有诱导性或让ai无法回答? -
1.你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
有遇到过。AI不是在查找答案,而是在预测,下一个要说的最合理的词应该是什么,基于transformers模型,AI将一整个指令分解为一个一个的词,再用注意力机制分析每一个词后面应该对应的词是哪一个,最后将这些分析出来的词语组合成一个完整的句子。也正是因为如此,AI并没有真正理解句子的能力,也就造成了AI幻觉的出现。2.这篇文章有没有解决你对于AI的困惑?假如你有机会与AI领域的专家深入交流AI,你会问专家哪些问题?请列出你好奇的问题。
有,问题:AI是在什么样的背景下被创造出来的? -
1
我曾经一次用deep seek搜索一篇课内文言文和一篇课外文言文之间联系和关系的时候,我发现deep seek其实不能够正确的给出我想要的信息。 deepseek将另外一篇其他作者写的同名的古文发送给了我。但是当我给他解释让他明白我说的是另外一篇古文的时候,他依然重复回答了。之前他搜索出来这篇古文,并且用一种非常可笑的方式来修正自己的回答。他仍然用了原来那篇古文的内容,但是却将这篇古文的作者擅自修改了。
2
我比较想要了解ai幻觉在技术方面有没有突破的可能。当我们需要ai的便利,但同时又担心他给予的信息是否准确的时候,我们应该采取一种什么样的方式? -
- 你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
我暂时没有发生过文章中提到的AI幻觉,可能是因为我平时常用AI来查查资料,不经常用它的生成功能吧,不过有一次我让它根据张乐平的风格生成一副有关三毛的漫画,他生成出来的三毛却有三条腿,也不止三根头发,不知道算不算一种AI幻觉?;AI幻觉的产生是基于AI的工作原理的,AI会预测一个词接下来的词大概是什么,如果这种预测不符合实际,就会出现AI幻觉;我觉得AI是没有智能的,因为它只是通过自己接受的数据进行预测和模仿,和“鹦鹉学舌”是一个道理,只不过它比鹦鹉更聪明一些罢了 - 这篇文章有没有解决你对于AI的困惑?假如你有机会与AI领域的专家深入交流AI,你会问专家哪些问题?请列出你好奇的问题。
这篇文章基本解决了我对AI的困惑,尤其是有关AI幻觉的部分;我可能会问专家:AI模型的训练数据范围是怎样的?会在输入客观数据的同时,输入一些主观的内容吗?阿西莫夫短篇小说里的正子脑是有可能实现的吗?
- 你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
-
1.你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
目前没有。Ai幻觉出现的原因主要源自它自身的运算机制。我认为ai幻觉就是应为ai没有智能,他只能根据数据灌输处理问题,也无法判断信息的来源是否准确,所以回答中可能会带有个人观点,所以ai现阶段的几乎所有智能都是人类赋予的。
2,。这篇文章有没有解决你对于AI的困惑?假如你有机会与AI领域的专家深入交流AI,你会问专家哪些问题?请列出你好奇的问题。
有。我会问:- 在正确信息大面积的覆盖下能否消除ai幻觉的影响。
2.为什么不将ai分为两个板块,一个创造,一个准确。
3.我们能否快速辨别ai信息是否准确
4.为什么ai无法理解内容真正的意思
- 在正确信息大面积的覆盖下能否消除ai幻觉的影响。
-
1.你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
我在使用deepseek帮我制定台州旅游攻略的时候,他让我在去完国清寺之后去一家里那很近的咖啡店,但当我去查了之后才发现那家咖啡店距离国清寺有8公里的距离……
我觉得AI还是不能去理解我们所给出的指令,它的本质还是从我们的指令中提取关键词,然后在从别处(可能是它的资源库或者是网上)去搜寻答案再通过程序中赋予它的组织语言的能力将这些信息编定成我们所需的答案,但本质还是通过程序设计做到的,并没有真正的理解
2.这篇文章有没有解决你对于AI的困惑?假如你有机会与AI领域的专家深入交流AI,你会问专家哪些问题?请列出你好奇的问题。
基本上把我日常对于AI的困惑解决了。
如果有一天AI真的能理解人类情感,能模仿共情,会如何影响人际关系,作为技术人员,你们是否会做出组织它发展下去的行动? -
- 你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
有过这种经历,我给他喂物理题的时候,他会在过程中给出正确的方程式和定理,但在最后结果的输出上有时会输出某种不可能的情况。根据文章ai幻觉产生的原因是比较复杂的,我觉得根本的是人类对于人类思维的产生过程可能不太了解,所以让ai根据大量数据中词语出现的概率输出结果,让他看起来智能,符合正常的思维。因此,我觉得如果transformer模型运行的逻辑是文章中描述的话,目前的ai并不算智能 - 这篇文章有没有解决你对于AI的困惑?假如你有机会与AI领域的专家深入交流AI,你会问专家哪些问题?请列出你好奇的问题
我觉得这篇文章解决了我对于ai背后运行逻辑的问题,但对于为什么会有这种逻辑的问题没有解决。我可能会问你们对于人工智能的定义是什么,未来会怎样改进模型,目前遇到了什么科学原理上或者技术上的瓶颈
- 你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
-
1.你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
我自己没有碰到过,甚至问了Deepseek一些“法国与月球之间的殖民地冲突”、“如何换圆珠笔中的铅芯”这样的问题,它也能告诉我其中的错误。根据文章,AI幻觉主要产生的原因是因为AI的思考逻辑。它是通过分析关键词来引申出训练模版中最相似的答案,然后组装出答案。我觉得AI有”智能”,但若问它是否能理解就值得深思了。若是按照人类的理解法,AI是永远无法“理解”的。但是每个物种都有它的分析逻辑,AI是靠训练数据来“理解”这个世界的,如同狗能“听懂”人类说话一样。
这篇文章有没有解决你对于AI的困惑?假如你有机会与AI领域的专家深入交流AI,你会问专家哪些问题?请列出你好奇的问题。
之前我一直困惑AI如何能思考?我刻板印象中的程序是按照一条条编码来严格执行的,模型训练只能帮助下棋AI、识别物体AI等一些利用枚举法来完成事务的AI。看完这篇文章,我理解了AI能思考的大致方法。对于AI幻觉,我并没有太大吃惊,毕竟没有东西不会犯错,出现AI幻觉顶多乐一乐乐一乐。
若我能与AI领域的专家深入交流AI,我有以下一些好奇的问题:
1.为什么同一个AI训练集中的数据都一样,问其同一个问题时却会有无数种不同的答复?
2. AI可以上网吗?意思是AI的答复是实时更新的,还是每一年或月会重新导入一次训练集与数据?
3. AI为什么能创造出世界上未被发明出来的东西?是怎么思考到的? -
时文预习:
Q1:你在使用AI时,有没有
遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
A1:我并没有对某个领域特别的深入学习,并且我平时不大用AI,所以就并不清楚自己是否遇到过“AI幻觉”。
AI幻觉产生的原因应该是因为,AI回答问题是对问题给出的词进行分析从而对问题得出下文,而“得出下文”这一动作是基于AI训练所越发成熟的,所以得出的下文是基于AI训练已有的知识储备。AI的回答是自行提炼生成的,这也代表着必然会有与现实的偏差,而我理解于这些偏差就是“AI幻觉”的基础。
“智能”指的是“有智慧和能力”,我觉得AI完全有“能力”,但它没有“智慧”。材料中有提到“从内部结构到训练过程,AI都没有‘理解词意’这一步”,所以说AI虽然能够给出契合的回答,但那是它基于提问者提出的问题的拆解推理,它本质并没有理解词的意思或句的意思,只是进行推测而已。但换句话来说,“理解”这一词是基于有自主思考的生物来说,我觉得AI本身就不拥有自主思考能力,所以它也不会有“理解”这一行为。Q2:这篇文章有没有解决你对于AI的困惑?假如你有机会与AI领域的专家深入交流AI,你会问专家哪些问题?请列出你好奇的问题。
A2:这篇文章让我了解了AI的运行原理和“AI幻觉”的出现与其原理。如果说问题的话,今天中午我在看过铭辰同学朋友圈时有看到他提的一个问题,大体就是AI到底是像人好还是不像人好,我觉得这个问题很好,这或许也能使AI在接下来的创作中确定创作的方向。
但说到底AI到底该不该像人?我觉得不像为好,AI终究与人不是同一个体,它虽是人类的产物,但它也是服务于人的工具,如果让AI成为人,那这或许就不符AI创作的核心理念了(我的猜测)。
说回到提问题,我自己想提的问题是“如果AI继续创作创新的话,运用AI的用户是否还要设立为大众向?是否人人都能使用AI?” -
时文讨论-如何看待AI“一本正经胡说八道”
1.在使用 AI 时,我确实遇到过“AI 幻觉”。例如,AI 有时会生成看似合理但实际上不准确或虚构的内容。根据文章,AI 幻觉产生的原因是生成式 AI 的工作原理。AI 并不是通过理解问题来生成答案,而是通过预测下一个最可能的词来生成文本。它基于大量的训练数据,模仿语言模式生成答案,但并不理解词义或区分信息的真假。因此,AI 可能会将训练数据中的碎片信息进行概率重组,生成看似合理但实际上不存在的细节。
我认为 AI 并不具备真正的“智能”或理解能力。它只是基于统计生成文本,而不是通过真正的理解或推理来回答问题。
2.这篇文章在一定程度上解答了我对 AI 幻觉的疑问,特别是关于 AI 如何生成文本以及为什么会产生幻觉的解释。
假如我有机会与AI领域的专家深入交流,AI我会问专家的问题:
AI 幻觉是否可以完全消除,或者我们是否只能通过某些方法来减少幻觉的发生?
在未来的 AI 发展中,是否有可能会开发出能够真正理解语义和上下文的 AI 模型?
如何设计更好的用户界面和提示词,以帮助用户更有效地与 AI 交互,减少幻觉的影响? -
1.你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
呃,因为用ai用的比较少,所以也大概没有遇到过ai幻觉。
AI幻觉表面为AI将自身已有的一堆信息组合虚构出了一个看似真实的虚假事件。AI幻觉产生的原因是AI基于给出的文字按照自身拆解后得出的各个分开的词汇,根据自身的数据库中对应的答案,推测人类希望的回答方向。在一些领域之中,AI依据数据库所得出的对应词汇的回答,与使用者一开始所希望的使用方向并不相同,比如材料中是要介绍博物馆,但AI却是以资料之中钱庄的种种用途,去尽量满足这个要求,把这些信息套到这个问题之上。
至少我现在认识的AI已经远没有之前想象的那么“智能”,有点怯魅了。但AI仍然堪称是智能的,虽然其只能以只言片语的结合来以自己的数据库结合,进行匹配、组合。它无法真正去理解一个句子,也就不会真正理解到提出的问题的全部,而其认识到的词汇,虽然会与后面的词进行一定的结合,但实质仍是以最常用的释义来推测答案,而非真正能够依靠几个词语的组合理解词汇在句子中的真正含义,它并不能达到真正而较为完全的理解。2.这篇文章有没有解决你对于AI的困惑?假如你有机会与AI领域的专家深入交流AI,你会问专家哪些问题?请列出你好奇的问题。
解决了我对AI的一些困惑,比如AI如何理解各种的语言语句,并如何来得出问题的答案。
首先我肯定想问,什么时候会有一个新的模型,超越2017年的transformer的处理能力,能够实现对于句子的处理?
然后,AI是否能够利用这种语言模型实现更加近似于人类的“思考”,不那么依赖大数据给予的功能,以一种更加切合的方式进行理解,而非一味以最佳的方案进行描述。 -
预习作业1:我遇到过AI幻觉,“AI幻觉”之所以会产生,是因为生成式AI是一个学习者,当我们问AI问题时,它不是在找答案,而是在预判,下一句要说什么,什么词最合理。AI在阅读我们提供的信息时,通常会寻找关键词,并尝试预判下文会发生的内容。AI训练时用了大量高质量文本和书籍等资料,在内部训练过程时,AI并没有“理解词义”这一步骤。AI只能模仿并预测文本信息内容并续写文字。所以,当我们在询问AI一些训练数据中无法直接回答的问题时,AI便开始了胡说八道,生成不存在的文言文或网站等操作。同时,由于它的性能强,生成的内容太一本正经,即使有错误也会被蒙混过关,这便是“AI幻觉”
预习作业2:假如我有机会与AI领域的专家深入交流,那我估计会问一些关于AI是如何训练,以及训练通常都运用些什么资料来确保内容的丰富性。曾经我上python课,在训练模型这一部分时,我留下了深刻印象。把多张照片发送给AI,这些照片倘若内容大差不差,AI或许会产生一种错觉,于是便形成了AI的认知缺陷。而生活中,人们问AI的问题也是五花八门,我发现像Deepseek似乎会回答每一个问题,即使是蒙骗过关。这其中的丰富的逻辑性与推断能力是如何训练,以及运用什么内容训练的呢?