3月15日时文讨论: 如何看待AI“一本正经胡说八道”
-
1
我曾经一次用deep seek搜索一篇课内文言文和一篇课外文言文之间联系和关系的时候,我发现deep seek其实不能够正确的给出我想要的信息。 deepseek将另外一篇其他作者写的同名的古文发送给了我。但是当我给他解释让他明白我说的是另外一篇古文的时候,他依然重复回答了。之前他搜索出来这篇古文,并且用一种非常可笑的方式来修正自己的回答。他仍然用了原来那篇古文的内容,但是却将这篇古文的作者擅自修改了。
2
我比较想要了解ai幻觉在技术方面有没有突破的可能。当我们需要ai的便利,但同时又担心他给予的信息是否准确的时候,我们应该采取一种什么样的方式? -
- 你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
我暂时没有发生过文章中提到的AI幻觉,可能是因为我平时常用AI来查查资料,不经常用它的生成功能吧,不过有一次我让它根据张乐平的风格生成一副有关三毛的漫画,他生成出来的三毛却有三条腿,也不止三根头发,不知道算不算一种AI幻觉?;AI幻觉的产生是基于AI的工作原理的,AI会预测一个词接下来的词大概是什么,如果这种预测不符合实际,就会出现AI幻觉;我觉得AI是没有智能的,因为它只是通过自己接受的数据进行预测和模仿,和“鹦鹉学舌”是一个道理,只不过它比鹦鹉更聪明一些罢了 - 这篇文章有没有解决你对于AI的困惑?假如你有机会与AI领域的专家深入交流AI,你会问专家哪些问题?请列出你好奇的问题。
这篇文章基本解决了我对AI的困惑,尤其是有关AI幻觉的部分;我可能会问专家:AI模型的训练数据范围是怎样的?会在输入客观数据的同时,输入一些主观的内容吗?阿西莫夫短篇小说里的正子脑是有可能实现的吗?
- 你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
-
1.你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
目前没有。Ai幻觉出现的原因主要源自它自身的运算机制。我认为ai幻觉就是应为ai没有智能,他只能根据数据灌输处理问题,也无法判断信息的来源是否准确,所以回答中可能会带有个人观点,所以ai现阶段的几乎所有智能都是人类赋予的。
2,。这篇文章有没有解决你对于AI的困惑?假如你有机会与AI领域的专家深入交流AI,你会问专家哪些问题?请列出你好奇的问题。
有。我会问:- 在正确信息大面积的覆盖下能否消除ai幻觉的影响。
2.为什么不将ai分为两个板块,一个创造,一个准确。
3.我们能否快速辨别ai信息是否准确
4.为什么ai无法理解内容真正的意思
- 在正确信息大面积的覆盖下能否消除ai幻觉的影响。
-
1.你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
我在使用deepseek帮我制定台州旅游攻略的时候,他让我在去完国清寺之后去一家里那很近的咖啡店,但当我去查了之后才发现那家咖啡店距离国清寺有8公里的距离……
我觉得AI还是不能去理解我们所给出的指令,它的本质还是从我们的指令中提取关键词,然后在从别处(可能是它的资源库或者是网上)去搜寻答案再通过程序中赋予它的组织语言的能力将这些信息编定成我们所需的答案,但本质还是通过程序设计做到的,并没有真正的理解
2.这篇文章有没有解决你对于AI的困惑?假如你有机会与AI领域的专家深入交流AI,你会问专家哪些问题?请列出你好奇的问题。
基本上把我日常对于AI的困惑解决了。
如果有一天AI真的能理解人类情感,能模仿共情,会如何影响人际关系,作为技术人员,你们是否会做出组织它发展下去的行动? -
- 你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
有过这种经历,我给他喂物理题的时候,他会在过程中给出正确的方程式和定理,但在最后结果的输出上有时会输出某种不可能的情况。根据文章ai幻觉产生的原因是比较复杂的,我觉得根本的是人类对于人类思维的产生过程可能不太了解,所以让ai根据大量数据中词语出现的概率输出结果,让他看起来智能,符合正常的思维。因此,我觉得如果transformer模型运行的逻辑是文章中描述的话,目前的ai并不算智能 - 这篇文章有没有解决你对于AI的困惑?假如你有机会与AI领域的专家深入交流AI,你会问专家哪些问题?请列出你好奇的问题
我觉得这篇文章解决了我对于ai背后运行逻辑的问题,但对于为什么会有这种逻辑的问题没有解决。我可能会问你们对于人工智能的定义是什么,未来会怎样改进模型,目前遇到了什么科学原理上或者技术上的瓶颈
- 你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
-
1.你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
我自己没有碰到过,甚至问了Deepseek一些“法国与月球之间的殖民地冲突”、“如何换圆珠笔中的铅芯”这样的问题,它也能告诉我其中的错误。根据文章,AI幻觉主要产生的原因是因为AI的思考逻辑。它是通过分析关键词来引申出训练模版中最相似的答案,然后组装出答案。我觉得AI有”智能”,但若问它是否能理解就值得深思了。若是按照人类的理解法,AI是永远无法“理解”的。但是每个物种都有它的分析逻辑,AI是靠训练数据来“理解”这个世界的,如同狗能“听懂”人类说话一样。
这篇文章有没有解决你对于AI的困惑?假如你有机会与AI领域的专家深入交流AI,你会问专家哪些问题?请列出你好奇的问题。
之前我一直困惑AI如何能思考?我刻板印象中的程序是按照一条条编码来严格执行的,模型训练只能帮助下棋AI、识别物体AI等一些利用枚举法来完成事务的AI。看完这篇文章,我理解了AI能思考的大致方法。对于AI幻觉,我并没有太大吃惊,毕竟没有东西不会犯错,出现AI幻觉顶多乐一乐乐一乐。
若我能与AI领域的专家深入交流AI,我有以下一些好奇的问题:
1.为什么同一个AI训练集中的数据都一样,问其同一个问题时却会有无数种不同的答复?
2. AI可以上网吗?意思是AI的答复是实时更新的,还是每一年或月会重新导入一次训练集与数据?
3. AI为什么能创造出世界上未被发明出来的东西?是怎么思考到的? -
时文预习:
Q1:你在使用AI时,有没有
遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
A1:我并没有对某个领域特别的深入学习,并且我平时不大用AI,所以就并不清楚自己是否遇到过“AI幻觉”。
AI幻觉产生的原因应该是因为,AI回答问题是对问题给出的词进行分析从而对问题得出下文,而“得出下文”这一动作是基于AI训练所越发成熟的,所以得出的下文是基于AI训练已有的知识储备。AI的回答是自行提炼生成的,这也代表着必然会有与现实的偏差,而我理解于这些偏差就是“AI幻觉”的基础。
“智能”指的是“有智慧和能力”,我觉得AI完全有“能力”,但它没有“智慧”。材料中有提到“从内部结构到训练过程,AI都没有‘理解词意’这一步”,所以说AI虽然能够给出契合的回答,但那是它基于提问者提出的问题的拆解推理,它本质并没有理解词的意思或句的意思,只是进行推测而已。但换句话来说,“理解”这一词是基于有自主思考的生物来说,我觉得AI本身就不拥有自主思考能力,所以它也不会有“理解”这一行为。Q2:这篇文章有没有解决你对于AI的困惑?假如你有机会与AI领域的专家深入交流AI,你会问专家哪些问题?请列出你好奇的问题。
A2:这篇文章让我了解了AI的运行原理和“AI幻觉”的出现与其原理。如果说问题的话,今天中午我在看过铭辰同学朋友圈时有看到他提的一个问题,大体就是AI到底是像人好还是不像人好,我觉得这个问题很好,这或许也能使AI在接下来的创作中确定创作的方向。
但说到底AI到底该不该像人?我觉得不像为好,AI终究与人不是同一个体,它虽是人类的产物,但它也是服务于人的工具,如果让AI成为人,那这或许就不符AI创作的核心理念了(我的猜测)。
说回到提问题,我自己想提的问题是“如果AI继续创作创新的话,运用AI的用户是否还要设立为大众向?是否人人都能使用AI?” -
时文讨论-如何看待AI“一本正经胡说八道”
1.在使用 AI 时,我确实遇到过“AI 幻觉”。例如,AI 有时会生成看似合理但实际上不准确或虚构的内容。根据文章,AI 幻觉产生的原因是生成式 AI 的工作原理。AI 并不是通过理解问题来生成答案,而是通过预测下一个最可能的词来生成文本。它基于大量的训练数据,模仿语言模式生成答案,但并不理解词义或区分信息的真假。因此,AI 可能会将训练数据中的碎片信息进行概率重组,生成看似合理但实际上不存在的细节。
我认为 AI 并不具备真正的“智能”或理解能力。它只是基于统计生成文本,而不是通过真正的理解或推理来回答问题。
2.这篇文章在一定程度上解答了我对 AI 幻觉的疑问,特别是关于 AI 如何生成文本以及为什么会产生幻觉的解释。
假如我有机会与AI领域的专家深入交流,AI我会问专家的问题:
AI 幻觉是否可以完全消除,或者我们是否只能通过某些方法来减少幻觉的发生?
在未来的 AI 发展中,是否有可能会开发出能够真正理解语义和上下文的 AI 模型?
如何设计更好的用户界面和提示词,以帮助用户更有效地与 AI 交互,减少幻觉的影响? -
1.你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
呃,因为用ai用的比较少,所以也大概没有遇到过ai幻觉。
AI幻觉表面为AI将自身已有的一堆信息组合虚构出了一个看似真实的虚假事件。AI幻觉产生的原因是AI基于给出的文字按照自身拆解后得出的各个分开的词汇,根据自身的数据库中对应的答案,推测人类希望的回答方向。在一些领域之中,AI依据数据库所得出的对应词汇的回答,与使用者一开始所希望的使用方向并不相同,比如材料中是要介绍博物馆,但AI却是以资料之中钱庄的种种用途,去尽量满足这个要求,把这些信息套到这个问题之上。
至少我现在认识的AI已经远没有之前想象的那么“智能”,有点怯魅了。但AI仍然堪称是智能的,虽然其只能以只言片语的结合来以自己的数据库结合,进行匹配、组合。它无法真正去理解一个句子,也就不会真正理解到提出的问题的全部,而其认识到的词汇,虽然会与后面的词进行一定的结合,但实质仍是以最常用的释义来推测答案,而非真正能够依靠几个词语的组合理解词汇在句子中的真正含义,它并不能达到真正而较为完全的理解。2.这篇文章有没有解决你对于AI的困惑?假如你有机会与AI领域的专家深入交流AI,你会问专家哪些问题?请列出你好奇的问题。
解决了我对AI的一些困惑,比如AI如何理解各种的语言语句,并如何来得出问题的答案。
首先我肯定想问,什么时候会有一个新的模型,超越2017年的transformer的处理能力,能够实现对于句子的处理?
然后,AI是否能够利用这种语言模型实现更加近似于人类的“思考”,不那么依赖大数据给予的功能,以一种更加切合的方式进行理解,而非一味以最佳的方案进行描述。 -
预习作业1:我遇到过AI幻觉,“AI幻觉”之所以会产生,是因为生成式AI是一个学习者,当我们问AI问题时,它不是在找答案,而是在预判,下一句要说什么,什么词最合理。AI在阅读我们提供的信息时,通常会寻找关键词,并尝试预判下文会发生的内容。AI训练时用了大量高质量文本和书籍等资料,在内部训练过程时,AI并没有“理解词义”这一步骤。AI只能模仿并预测文本信息内容并续写文字。所以,当我们在询问AI一些训练数据中无法直接回答的问题时,AI便开始了胡说八道,生成不存在的文言文或网站等操作。同时,由于它的性能强,生成的内容太一本正经,即使有错误也会被蒙混过关,这便是“AI幻觉”
预习作业2:假如我有机会与AI领域的专家深入交流,那我估计会问一些关于AI是如何训练,以及训练通常都运用些什么资料来确保内容的丰富性。曾经我上python课,在训练模型这一部分时,我留下了深刻印象。把多张照片发送给AI,这些照片倘若内容大差不差,AI或许会产生一种错觉,于是便形成了AI的认知缺陷。而生活中,人们问AI的问题也是五花八门,我发现像Deepseek似乎会回答每一个问题,即使是蒙骗过关。这其中的丰富的逻辑性与推断能力是如何训练,以及运用什么内容训练的呢? -
我在使用AI的时候,经常遇到AI幻觉。就比如说在问数学题的时候,会根据一个看似很有道理的公式,推出一个完全错误的结论和答案。根据文章,AI幻觉产生的原因是因为,AI其实并不理解文章的意思或者词语的内涵,他们只能根据大数据来预测语境,从而给出一个看似较为合理的答案。但由于是数据库中搜索来的,数据库的信息可能并非准确,所以很有可能会出现错误,或者是根本就不存在只是一个拼接性的短语。
我认为AI在某些方面是智能的,但是他又不能算是完全的智能。就比如他在搜索或者是整理数据的方面,他是能够理解要求的。但是在面对一些有主观情感存在的“文艺”问题,就不能理解了。
在未来AI有没有可能真正的做到理解词语表达的内涵,理解文章中作者的情感?
未来,AI是否可以自主地剔除在杂乱消息中的错误?
未来,AI是否可以发展出创造性思维?/ -
我并没有使用过Al.
我认为产生AI幻觉的原因:
⒈ AI并不会自己思考问题,理解问句词句的概念或者深层含义。他只会根据问句,中的关键词语,给出反应。在他回答问题时,他会将所有他认为大概率是正确答案的东西胡乱的组合在一起,组成看似合理,专业时则一派胡言的文章。其中不乏有很多真实且高深的专业知识,但也有很多由自己随机组成的或者不符合问题条件限制(如时间、国家地点……)的词语。这是人们在使用时无法判断真伪,把由AI胡乱输出的答案认为正确,从而产生幻觉。
⒉第二个产生原因是,AI所输出的答案并不是他自己思考的,而是从大数据或者网站中摘抄分解出来的,但大数据里的信息也不一定是正确的,都是通过人类发送的,不一定对,也可能有个人的片面认识或者误解和错误知识。
我觉得AI并不智能,他并不存在智慧,没有自己思考,他所说的深度思考只是通过人类创造的经纬网,用来模拟人脑,他所说的大多数回答都是经过摘抄,但是他并没有思考其中的一些逻辑错误,并没有判断网站上信息真伪的能力。
问题二:
没有
⒈现在的AI回答问题,大多是通过从大数据中摘抄提取再重新组合,那么在未来他会不会学会像人脑一样做到真正意义上的自己创造?
⒉ AI是否可以不经过人类要求自己创造一个AI?
⒊当AI和人类一样拥有智慧的时候,人类还有什么地方是AI所欠缺的或者比不上的?
⒋如果人类灭绝了,像deepseek 这些AI会不会也消失(因为没有人使用电脑手机)?
⒌在不需要人类辅助的情况下,AI可不可以给自己创造出身体?
⒍如果人类灭绝了,deepseek 会不会为了继续存在和其他的地球生物进行沟通?
⒎ AI和人类哪个会最先想出在地球生物生存移居在火星上的办法? -
- 你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
目前为止,我比较多使用AI来评估我语文作文的写作。如果作文有内容上的难点,比如上海的春节民俗,我会用它来提示上海有哪些民俗。再比如我会写好我的文章然后告诉AI,让AI来帮我优化,增加成语和诗词,提升文章中的科学素养。
我认为我没有出现AI幻觉的原因是因为我输入的指令目前来说比较精准,就是比较封闭的以及比较客观问题,不会直接让他生成含有创意的内容。所以没有出现幻觉。
我了解到的Deepseek的学习是建立在人类认知上的,它有自我学习的能力。好比Alphago学围棋是学棋谱,Deepseek是通过模拟对弈,生成最佳规则。 - 这篇文章有没有解决你对于AI的困惑?假如你有机会与AI领域的专家深入交流AI,你会问专家哪些问题?请列出你好奇的问题。
我想问的是
1- 算法有千万不同种,专家是如何定义到最佳算法给到AI的。
2- 据说AI的智慧已经可以达到欺骗人类的程度,那么未来,我们要如何合理控制这个风险。
- 你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?