3月15日时文讨论: 如何看待AI“一本正经胡说八道”
-
1.你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
我遇到过,比如在AI软件里问草莓的英语有几个r,它的回答是有两个,但是strawberryp拼写中却有三个r。我还看过类似报道,有人已经用AI看病了,但是存在瞎编药物名称和医疗建议,整合诊断和建议看似很合理,却把一些错误的不存在的信息描述出来了,让人误导。我觉得AI幻觉产生的原因,是因为它并不理解我们的问题,只是按统计规律给出了看似合理的输出,以及数据本身就有错误的信息。我认为AI没有“智能”,只是基于一些大数据,提供具体理论和方案,根据关键词把数据抓取出来,不能判断出信息的真假与对错,所以不存在“智能”。2.这篇文章有没有解决你对于AI的困惑?假如你有机会与AI领域的专家深入交流AI,你会问专家哪些问题?请列出你好奇的问题。
这篇文章解决了我对AI的一部分困惑。如果我和专家交流,我会问能不能让AI更加准确严谨?AI数据的可靠性该怎么去衡量?是否可以按照它的优势来进行运用?比如在罕见病的诊断上,可能AI就有优势,可以将极少数的病例汇总,来帮助医师更快的诊断。 -
1.你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
目前还没有…我认为是因为AI的本质是通过大量计算和海量的网络文章“学习”的语言模仿,而他们是无法真正理解知识的。当ai模型遇到训练数据或网络资料中未覆盖或矛盾的内容时,会基于概率去拼凑这些“看似合理”的答案,就给人以“一本正经胡说八道”的感觉。
2.这篇文章有没有解决你对于AI的困惑?假如你有机会与AI领域的专家深入交流AI,你会问专家哪些问题?请列出你好奇的问题
解决了不少,也稍微给我科普了一下。一个比较实际的问题:当AI幻觉导致事实性错误传播时,责任应如何划分(开发者/用户/平台)?当ai在生活中的普及性越来越强,我们又应该如何去衡量对于ai的使用?(是否有具体的能使ai稳定发展并可靠使用的岗位?) -
1.你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
我之前也遇到过AI幻觉,这种幻觉主要的产生原因就是AI的transformer模型让AI在思考的时候不是以句子为单位,而是以词语为单位,再根据词语,结合注意力机制去组成相应的回答,这些回答之间可能毫无关联性,是因为AI的生成过程中没有“理解词义”的部分,也相对应的,就不能理解输入的内容本质是什么。2.这篇文章有没有解决你对于AI的困惑?假如你有机会与AI领域的专家深入交流AI,你会问专家哪些问题?请列出你好奇的问题。
说实话,没有(因为我之前看过一些国外的外刊文章,这篇文章讲到的内容也基本差不多)。
问题:
1.现有的transport模型,能否有做出真正有思考能力的架构
2.注意力机制是现在AI的最优解?
3.对于所谓的“AI幻觉”,能不能通过early fusion(前融合)的方式进行解决?
4.AI的数据越多,出错的概率是会变高还是变低
5.AI的数据能否在录入前进行筛查(至少剔除客观错误) -
1.你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
我目前还没有遇到过因为处理文字有误而导致的“AI幻觉”,但是最近在用它写班级活动总结的时候,它确实会给出很多不符合高中生背景的“一眼假”内容,可能和它被喂的语料库有关吧。根据文章,AI幻觉产生的原因是主流模型处理数据的方式。它的“理解”是先破句再编码处理。我觉得目前不能算有“智能”,只能说是模仿人脑的学习方式,根据语料库用代码生成一段文字。
2.这篇文章有没有解决你对于AI的困惑?假如你有机会与AI领域的专家深入交流AI,你会问专家哪些问题?请列出你好奇的问题。
我好奇,如果医生利用ai诊断导致误诊,或是其它使用AI辅助工作但是出错的情况,应该如何归责? -
你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
我很少使用AI,有的时候主要是寻找一些专业性的资料没有找到才去问AI。所以我通常都没有遇到过。对我来说AI可能更像是一个图书管理员。它通过分析你语句中的关键词把你可能想要的资料混合在一起。或者说是一个只会套公式的学生。我觉得AI是不算是智能的。
这篇文章有没有解决你对于AI的困惑?假如你有机会与AI领域的专家深入交流AI,你会问专家哪些问题?请列出你好奇的问题。
1、对于那些比较依赖 AI 进行决策的领域,如何建立有效的监督和审核机制,确保 AI 输出的信息准确可靠,避免因 AI 幻觉导致严重的后果?
2、目前有没有正在研究的、更有效的方法来大幅降低 AI 幻觉的出现概率,而不仅仅是在一定程度上缓解?
3、随着 AI 技术的不断发展,未来 AI 是否有可能在不牺牲其生成能力的前提下,真正实现对词意的理解和对问题的思考,从而从根本上解决 AI 幻觉的问题? -
1.你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
有。我在问他某项赛事的预测时他将一个已经淘汰的队伍认作冠军。就是他们会根据问题几个词语来选出概率最高的词语,从而形成回答,导致很可能会将几个互不关联的词连在一起。我觉得deepseek似乎主要是根据查询到的网页来回答的,他只是把几个网页的关键信息整理了出来,所以它应该是可以理解的,不然它没法鉴别信息的真伪和准确性
2.这篇文章有没有解决你对于AI的困惑?假如你有机会与AI领域的专家深入交流AI,你会问专家哪些问题?请列出你好奇的问题。
大概可以,我就是比较好奇ai写作的原理是什么 -
阅读以下文章,请你联系自己使用AI的经历,分享对下面问题的想法:
1、你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
有,而且不少。幻觉产生的原因是ai生成文字其实是通过学习的大量相似语境生成下一个字而形成的。很明显,这个问题我们先需要解释什么是理解,我不太懂脑科学,可是人类的理解也是个很神奇的过程,扪心自问我们自己怎么知道自己有没有理解这个词语,ai也可以把这些词语用出来……
2、这篇文章有没有解决你对于AI的困惑?假如你有机会与AI领域的专家深入交流AI,你会问专家哪些问题?请列出你好奇的问题。
1、ai是否可能不用文字而直接由文图结合的方式进行思考,即用来判定的媒介不仅仅是文字还有图像……这样就可以更加接近人脑的“思考”功能。
2、为什么不能直接把事实的输出写作优先级最高的? -
你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
当问同类型的问题时,ai生成的答案是一个统一的模板,给你一个看似合理的回答,但它似乎并不理解真正的内容,也无法判断真假。它仅仅是利用大量的数据进行组合和模仿。这篇文章有没有解决你对于AI的困惑?假如你有机会与AI领域的专家深入交流AI,你会问专家哪些问题?请列出你好奇的问题。
这篇文章让我理解了一些ai为什么会“胡说八道”,因为它并不是真的知道答案。
随着AI的普及,怎么防止它被滥用?
随着科技发展,AI会不会真的理解内容?是否能像人类一样思考? -
预习作业1:
遇到过AI幻觉。我认为,AI幻觉产生的原因是AI的模型不具备“理解词意”的功能,无法理解人类所给出的指令的含义。它只是将指令拆分成词元,并预测看似“最可能”的组合,而不在意它的真实性,所以会出现许多子虚乌有的信息。我觉得AI没有“智能”,它不能理解我们的意思。因为AI只是一个推理模型,它根据输入的数据和信息,通过算法进行预测和推断。虽然AI在某些任务上表现得非常出色,甚至超过了人类,但这并不意味着AI具有真正的“智能”。它无法像人类一样理解复杂的情感、价值观和道德准则。
预习作业2:
并没有完全解决。我会问:1.AI是如何从6710亿个参数中快速找出回答?
2.AI在处理信息时,是否会受到预设偏见的影响,从而导致结果的不公正?
3.随着技术的发展,AI是否有可能在未来具备真正的“智能”,甚至超越人类的智能水平? -
问题一:
我在使用AI的时候也遇到过AI的大模型幻觉,而根据文章,AI的幻觉根源其实并不是我搜索的信息流,而是AI特殊的处理问题的形式——transformer。它在处理词的时候,会将各种词拆解成一个个包含位置信息的词源,这样可以方便进行数字编程和计算处理,让AI更灵活地处理各种语言。但是由于这种拆分,AI并不会进行理解词义这个步骤,它更像是在进行一种预测。在这个过程中,它按照统计的相关数据选择它认为是最可能的组合,但并没有考虑其真正的含义或引申义。它的答案都是基于概率分布去看待重点,只能尽量准确地预测后续应出现的单词或词句。它只是在模仿基本的训练,然后尽可能准确地进行文本续写。所以我觉得AI其实并没有智能,虽然它深沉的话语充满了人情味,感觉就像一个真人在和你说话,理解的程度也很深,但是它就是一个计算机,把训练存储的数据一一提取出来,组成句子,看似十分精准,但是它并不理解所回答的问题,不能说它智能。
问题二:这篇文章更加完善了我对AI大模型幻觉的理解。倘若我能与AI领域的专家进行深入交流,我会问以下这几个问题:
(1)有什么办法能让我更方便地找出AI大模型产生幻觉的错误之处?
(2)将AI大模型的训练内容进行修正或者升级,能不能降低大模型出现幻觉的概率?(3)可不可以将AI大模型独特的transformer系统进行改变或者升级来降低大模型幻觉的概率?AI的前景如何? -
问题1:我有遇到过AI幻觉。我问AI陈从周修复豫园的设计理念,它告诉我理念之后还给了我一张豫园的照片,但是图片上却有一个在水中的类似于菩萨的雕像,我觉得很奇怪,就问它,它告诉我这是在点春堂景区,但点春堂没有面积较大的水和雕塑,为了确保准确我就问它点春堂有没有雕塑,它却告诉我没有,这就矛盾了。我觉得AI出现幻觉是因为AI会注意我们问题中的关键词,条件,关联词等,根据高质量训练集的内容进行总结模仿写出答案,但是它并不理解关键词的意思,只是模仿写出看似合理的答案这其中会有它自己瞎编的内容。因为这一点我觉得AI不是特别智能。
问题2:通过文本,我了解到让AI不出错其实是不可避免的,毕竟它不理解词语的意思,为了减少它胡说八道的情况就要把问题问清楚而不是给它一个比如“理念”的大概念。我有两个问题:第一,为什么在AI给出总结模仿后的答案前,不先根据自己的数据库来搜索一下自己的答案是不是瞎编的,它的数据库肯定是足够大的?第二,为什么AI对同一个问题的回答不一样,这样胡说八道的可能性就更大? -
⒈你在使用ai时,有没有遇到过“al幻觉”?根据文章,ai幻觉产生的原因是什么?你觉得ai有没有智能?
有。有一次我写了一首小诗,发现里面有些字不太合适,就问deepseek“柳芽”有什么别称,发现别称是对的,但是佩的诗词出处却是混乱的。根据文章,我觉得ai出现幻觉是因为它并不是一个单纯的帮助你快速寻找正确答案“资源库”,而是有创造性的,由于训练时只是给它一个数据库,训练ai组织语言,所以它并没有真正像人一样理解词意,仅是将词语与常用的另一些词语关联起来,目前还没有做到真正的“智能”。
⒉ 这篇文章有没有解决你对于AI的困惑?假如有机会,你会问AI领域的专家什么问题?
并不完全。这几篇文章让我理解了ai是一个“生成式”的,且不理解词意,纠正了我之前对ai是“无所不知的数据库”的错误认知。但是也带起了我的疑惑:
⑴ 既然ai出现幻觉,降低温度虽能消除幻觉,但又会让ai失去额外价值,那么将来会有办法找到两全其美的方法吗?
⑵用户输入什么内容会对ai有诱导性或让ai无法回答? -
1.你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
有遇到过。AI不是在查找答案,而是在预测,下一个要说的最合理的词应该是什么,基于transformers模型,AI将一整个指令分解为一个一个的词,再用注意力机制分析每一个词后面应该对应的词是哪一个,最后将这些分析出来的词语组合成一个完整的句子。也正是因为如此,AI并没有真正理解句子的能力,也就造成了AI幻觉的出现。2.这篇文章有没有解决你对于AI的困惑?假如你有机会与AI领域的专家深入交流AI,你会问专家哪些问题?请列出你好奇的问题。
有,问题:AI是在什么样的背景下被创造出来的?