3月15日时文讨论: 如何看待AI“一本正经胡说八道”
-
- 你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
有过这种经历,我给他喂物理题的时候,他会在过程中给出正确的方程式和定理,但在最后结果的输出上有时会输出某种不可能的情况。根据文章ai幻觉产生的原因是比较复杂的,我觉得根本的是人类对于人类思维的产生过程可能不太了解,所以让ai根据大量数据中词语出现的概率输出结果,让他看起来智能,符合正常的思维。因此,我觉得如果transformer模型运行的逻辑是文章中描述的话,目前的ai并不算智能 - 这篇文章有没有解决你对于AI的困惑?假如你有机会与AI领域的专家深入交流AI,你会问专家哪些问题?请列出你好奇的问题
我觉得这篇文章解决了我对于ai背后运行逻辑的问题,但对于为什么会有这种逻辑的问题没有解决。我可能会问你们对于人工智能的定义是什么,未来会怎样改进模型,目前遇到了什么科学原理上或者技术上的瓶颈
- 你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
-
1.你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
我自己没有碰到过,甚至问了Deepseek一些“法国与月球之间的殖民地冲突”、“如何换圆珠笔中的铅芯”这样的问题,它也能告诉我其中的错误。根据文章,AI幻觉主要产生的原因是因为AI的思考逻辑。它是通过分析关键词来引申出训练模版中最相似的答案,然后组装出答案。我觉得AI有”智能”,但若问它是否能理解就值得深思了。若是按照人类的理解法,AI是永远无法“理解”的。但是每个物种都有它的分析逻辑,AI是靠训练数据来“理解”这个世界的,如同狗能“听懂”人类说话一样。
这篇文章有没有解决你对于AI的困惑?假如你有机会与AI领域的专家深入交流AI,你会问专家哪些问题?请列出你好奇的问题。
之前我一直困惑AI如何能思考?我刻板印象中的程序是按照一条条编码来严格执行的,模型训练只能帮助下棋AI、识别物体AI等一些利用枚举法来完成事务的AI。看完这篇文章,我理解了AI能思考的大致方法。对于AI幻觉,我并没有太大吃惊,毕竟没有东西不会犯错,出现AI幻觉顶多乐一乐乐一乐。
若我能与AI领域的专家深入交流AI,我有以下一些好奇的问题:
1.为什么同一个AI训练集中的数据都一样,问其同一个问题时却会有无数种不同的答复?
2. AI可以上网吗?意思是AI的答复是实时更新的,还是每一年或月会重新导入一次训练集与数据?
3. AI为什么能创造出世界上未被发明出来的东西?是怎么思考到的? -
时文预习:
Q1:你在使用AI时,有没有
遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
A1:我并没有对某个领域特别的深入学习,并且我平时不大用AI,所以就并不清楚自己是否遇到过“AI幻觉”。
AI幻觉产生的原因应该是因为,AI回答问题是对问题给出的词进行分析从而对问题得出下文,而“得出下文”这一动作是基于AI训练所越发成熟的,所以得出的下文是基于AI训练已有的知识储备。AI的回答是自行提炼生成的,这也代表着必然会有与现实的偏差,而我理解于这些偏差就是“AI幻觉”的基础。
“智能”指的是“有智慧和能力”,我觉得AI完全有“能力”,但它没有“智慧”。材料中有提到“从内部结构到训练过程,AI都没有‘理解词意’这一步”,所以说AI虽然能够给出契合的回答,但那是它基于提问者提出的问题的拆解推理,它本质并没有理解词的意思或句的意思,只是进行推测而已。但换句话来说,“理解”这一词是基于有自主思考的生物来说,我觉得AI本身就不拥有自主思考能力,所以它也不会有“理解”这一行为。Q2:这篇文章有没有解决你对于AI的困惑?假如你有机会与AI领域的专家深入交流AI,你会问专家哪些问题?请列出你好奇的问题。
A2:这篇文章让我了解了AI的运行原理和“AI幻觉”的出现与其原理。如果说问题的话,今天中午我在看过铭辰同学朋友圈时有看到他提的一个问题,大体就是AI到底是像人好还是不像人好,我觉得这个问题很好,这或许也能使AI在接下来的创作中确定创作的方向。
但说到底AI到底该不该像人?我觉得不像为好,AI终究与人不是同一个体,它虽是人类的产物,但它也是服务于人的工具,如果让AI成为人,那这或许就不符AI创作的核心理念了(我的猜测)。
说回到提问题,我自己想提的问题是“如果AI继续创作创新的话,运用AI的用户是否还要设立为大众向?是否人人都能使用AI?” -
时文讨论-如何看待AI“一本正经胡说八道”
1.在使用 AI 时,我确实遇到过“AI 幻觉”。例如,AI 有时会生成看似合理但实际上不准确或虚构的内容。根据文章,AI 幻觉产生的原因是生成式 AI 的工作原理。AI 并不是通过理解问题来生成答案,而是通过预测下一个最可能的词来生成文本。它基于大量的训练数据,模仿语言模式生成答案,但并不理解词义或区分信息的真假。因此,AI 可能会将训练数据中的碎片信息进行概率重组,生成看似合理但实际上不存在的细节。
我认为 AI 并不具备真正的“智能”或理解能力。它只是基于统计生成文本,而不是通过真正的理解或推理来回答问题。
2.这篇文章在一定程度上解答了我对 AI 幻觉的疑问,特别是关于 AI 如何生成文本以及为什么会产生幻觉的解释。
假如我有机会与AI领域的专家深入交流,AI我会问专家的问题:
AI 幻觉是否可以完全消除,或者我们是否只能通过某些方法来减少幻觉的发生?
在未来的 AI 发展中,是否有可能会开发出能够真正理解语义和上下文的 AI 模型?
如何设计更好的用户界面和提示词,以帮助用户更有效地与 AI 交互,减少幻觉的影响? -
1.你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
呃,因为用ai用的比较少,所以也大概没有遇到过ai幻觉。
AI幻觉表面为AI将自身已有的一堆信息组合虚构出了一个看似真实的虚假事件。AI幻觉产生的原因是AI基于给出的文字按照自身拆解后得出的各个分开的词汇,根据自身的数据库中对应的答案,推测人类希望的回答方向。在一些领域之中,AI依据数据库所得出的对应词汇的回答,与使用者一开始所希望的使用方向并不相同,比如材料中是要介绍博物馆,但AI却是以资料之中钱庄的种种用途,去尽量满足这个要求,把这些信息套到这个问题之上。
至少我现在认识的AI已经远没有之前想象的那么“智能”,有点怯魅了。但AI仍然堪称是智能的,虽然其只能以只言片语的结合来以自己的数据库结合,进行匹配、组合。它无法真正去理解一个句子,也就不会真正理解到提出的问题的全部,而其认识到的词汇,虽然会与后面的词进行一定的结合,但实质仍是以最常用的释义来推测答案,而非真正能够依靠几个词语的组合理解词汇在句子中的真正含义,它并不能达到真正而较为完全的理解。2.这篇文章有没有解决你对于AI的困惑?假如你有机会与AI领域的专家深入交流AI,你会问专家哪些问题?请列出你好奇的问题。
解决了我对AI的一些困惑,比如AI如何理解各种的语言语句,并如何来得出问题的答案。
首先我肯定想问,什么时候会有一个新的模型,超越2017年的transformer的处理能力,能够实现对于句子的处理?
然后,AI是否能够利用这种语言模型实现更加近似于人类的“思考”,不那么依赖大数据给予的功能,以一种更加切合的方式进行理解,而非一味以最佳的方案进行描述。 -
预习作业1:我遇到过AI幻觉,“AI幻觉”之所以会产生,是因为生成式AI是一个学习者,当我们问AI问题时,它不是在找答案,而是在预判,下一句要说什么,什么词最合理。AI在阅读我们提供的信息时,通常会寻找关键词,并尝试预判下文会发生的内容。AI训练时用了大量高质量文本和书籍等资料,在内部训练过程时,AI并没有“理解词义”这一步骤。AI只能模仿并预测文本信息内容并续写文字。所以,当我们在询问AI一些训练数据中无法直接回答的问题时,AI便开始了胡说八道,生成不存在的文言文或网站等操作。同时,由于它的性能强,生成的内容太一本正经,即使有错误也会被蒙混过关,这便是“AI幻觉”
预习作业2:假如我有机会与AI领域的专家深入交流,那我估计会问一些关于AI是如何训练,以及训练通常都运用些什么资料来确保内容的丰富性。曾经我上python课,在训练模型这一部分时,我留下了深刻印象。把多张照片发送给AI,这些照片倘若内容大差不差,AI或许会产生一种错觉,于是便形成了AI的认知缺陷。而生活中,人们问AI的问题也是五花八门,我发现像Deepseek似乎会回答每一个问题,即使是蒙骗过关。这其中的丰富的逻辑性与推断能力是如何训练,以及运用什么内容训练的呢? -
我在使用AI的时候,经常遇到AI幻觉。就比如说在问数学题的时候,会根据一个看似很有道理的公式,推出一个完全错误的结论和答案。根据文章,AI幻觉产生的原因是因为,AI其实并不理解文章的意思或者词语的内涵,他们只能根据大数据来预测语境,从而给出一个看似较为合理的答案。但由于是数据库中搜索来的,数据库的信息可能并非准确,所以很有可能会出现错误,或者是根本就不存在只是一个拼接性的短语。
我认为AI在某些方面是智能的,但是他又不能算是完全的智能。就比如他在搜索或者是整理数据的方面,他是能够理解要求的。但是在面对一些有主观情感存在的“文艺”问题,就不能理解了。
在未来AI有没有可能真正的做到理解词语表达的内涵,理解文章中作者的情感?
未来,AI是否可以自主地剔除在杂乱消息中的错误?
未来,AI是否可以发展出创造性思维?/ -
我并没有使用过Al.
我认为产生AI幻觉的原因:
⒈ AI并不会自己思考问题,理解问句词句的概念或者深层含义。他只会根据问句,中的关键词语,给出反应。在他回答问题时,他会将所有他认为大概率是正确答案的东西胡乱的组合在一起,组成看似合理,专业时则一派胡言的文章。其中不乏有很多真实且高深的专业知识,但也有很多由自己随机组成的或者不符合问题条件限制(如时间、国家地点……)的词语。这是人们在使用时无法判断真伪,把由AI胡乱输出的答案认为正确,从而产生幻觉。
⒉第二个产生原因是,AI所输出的答案并不是他自己思考的,而是从大数据或者网站中摘抄分解出来的,但大数据里的信息也不一定是正确的,都是通过人类发送的,不一定对,也可能有个人的片面认识或者误解和错误知识。
我觉得AI并不智能,他并不存在智慧,没有自己思考,他所说的深度思考只是通过人类创造的经纬网,用来模拟人脑,他所说的大多数回答都是经过摘抄,但是他并没有思考其中的一些逻辑错误,并没有判断网站上信息真伪的能力。
问题二:
没有
⒈现在的AI回答问题,大多是通过从大数据中摘抄提取再重新组合,那么在未来他会不会学会像人脑一样做到真正意义上的自己创造?
⒉ AI是否可以不经过人类要求自己创造一个AI?
⒊当AI和人类一样拥有智慧的时候,人类还有什么地方是AI所欠缺的或者比不上的?
⒋如果人类灭绝了,像deepseek 这些AI会不会也消失(因为没有人使用电脑手机)?
⒌在不需要人类辅助的情况下,AI可不可以给自己创造出身体?
⒍如果人类灭绝了,deepseek 会不会为了继续存在和其他的地球生物进行沟通?
⒎ AI和人类哪个会最先想出在地球生物生存移居在火星上的办法? -
- 你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
目前为止,我比较多使用AI来评估我语文作文的写作。如果作文有内容上的难点,比如上海的春节民俗,我会用它来提示上海有哪些民俗。再比如我会写好我的文章然后告诉AI,让AI来帮我优化,增加成语和诗词,提升文章中的科学素养。
我认为我没有出现AI幻觉的原因是因为我输入的指令目前来说比较精准,就是比较封闭的以及比较客观问题,不会直接让他生成含有创意的内容。所以没有出现幻觉。
我了解到的Deepseek的学习是建立在人类认知上的,它有自我学习的能力。好比Alphago学围棋是学棋谱,Deepseek是通过模拟对弈,生成最佳规则。 - 这篇文章有没有解决你对于AI的困惑?假如你有机会与AI领域的专家深入交流AI,你会问专家哪些问题?请列出你好奇的问题。
我想问的是
1- 算法有千万不同种,专家是如何定义到最佳算法给到AI的。
2- 据说AI的智慧已经可以达到欺骗人类的程度,那么未来,我们要如何合理控制这个风险。
- 你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
-
好的那说道AI,人工智能,现在生活中就有许多AI产品比如今年Deepseek横空出世,国产人工智能,美国的ChatGPT,这两个最出名,其他还有豆包,讯飞星火等。大多数人用过AI的心中或许都会有一个疑惑,“为什么我的AI总是在一本正经的胡说八道?”没错,这次时文讨论的主题。
首先生成式AI是怎么运行的,也就是工作原理,AI的知识储备来源于你在训练AI时给它投喂的内容。目前我们专业人员训练AI时都会先投喂一些基本生活常识,比如“草是绿色的”,“海是蓝色的”,“这个喵喵叫的是猫”“那个吐舌头的是狗”像这样。随后开始投喂大量,“大量”文学书籍,典籍,为的就是让AI形成一种逻辑,“提取关键字”能力,语言能力以及“内容预测”能力。比如AI会在你说出“今天下雨了,可是妈妈···”的时候就开始捕捉关键词“下雨”“可是”,开始推测妈妈可能“没带伞”,再接着AI会预测“妈妈可能会淋湿”,再接着推测后面的内容。其次,AI是能通过在与人类“交流沟通”中获得信息的,如它回复你一个知识点,你明确告诉它这是错的,它也是能改过来的。再者,AI是具有“理解”能力的,在对它提出要求时,它根据它的知识储备量来“理解”你的要求并选择适当的“词语”结合在一起,回答你。我们小组讨论时又说到,AI是有共情能力的,能预测并猜测你的情绪,同时对你现在的状态作出合理的回复。那这种讨论模式看上去还挺正常,因为它的数据里是有一个“模型”,这个“模型”不同的AI可能有不同的模型,因此面对相同的问题回答并不一样。这便是AI的运行。
那么“AI幻觉”到底是什么呢?首先,AI的数据库里都是已知的,已存在的真实的答案,它无法用已知的知识来回答一些未知的问题。比如你问它“陆游是哪个时期的人”,AI会明确回答你,因为这是已知且大多数地方都搜得到的问题。但如果你要问AI你的2024年终总结怎么写,首先AI不是你,没有办法知道你的2024是怎么过来的,其次年终总结是一个没有局限性的,具有多变性的报告,AI肯定没有人类的思想或记忆,因此你这个问题对AI而言超纲了。为了回答你,AI不得不开始“胡说八道”。再说AI的“胡说八道”,有两种可能,一是它的数据库里储备的知识实在不够用,二是你问的问题是在太抽象了,正常人不会问这种问题。
那么AI为什么不能回答未知的问题呢?AI的局限性具体有多少。首先AI毕竟是AI,依靠人类“投喂”并“教育”它,所以AI开局就缺少了“自我学习”的能力,也就是它是一个“残疾人”,自己没办法冲浪,得依靠他们帮助。其次最重要的一点,AI没有感情,AI的数据源里的“神经系统”必然丰富,但是再丰富也丰富不过人类。因此你要问它“你现在是什么心情,开心吗”这种问题,AI是回答不了的,因为它不具备感情,它只具备思考能力。这两种结合,便能说明为什么“人机”是一种贬义词。一,人机,也就是AI数据库里的数据是定格的,需要按时给它投喂粮食;二,人机是没有感情的。人与人机最大的区别就是感情,人之所以为人,就是因为有独立思考,自主学习并有理解万物的感性的头脑。目前的AI暂时不具备这些。
这便是这次时文讨论我收获的知识。
现在我来回答两个问题:
1.我认为AI的最佳算法是在专家编写代码的时候一次次输入不同算法,然后测试这个AI,最终正确率最高,所用时间最短,效率最高的算法被专家提炼,总结核心要点后再进行进一步的编写,在一次次编写算法中找到一个最大值,编写入AI的代码里,于是便拥有了最佳算法。所以我认为AI的最佳算法是专家一个个“挑”出来的。
2.虽然我认为目前AI的智慧程度不至于欺诈人类,而是人类自身编写的代码欺诈人类,我认为AI目前还没有自己欺骗人类的能力。但是为了防止未来AI“觉醒”诈骗人类这一科幻小说里常出现的情节,我认为我们可以铲草除根,直接将此AI删除,另外给其他AI产品都多叠几层debeff,从根本上解决此问题。或者我们可以研究一个更超前的“杀毒软件”,将欺诈人类的AI的模型都写进去,比如AI提供的文字内容具有虚假性,诈骗等。每当下载一个AI软件时,就让这个杀毒软件给这个AI“开户”,查看他的模型,如有不对立刻自动卸载。再者,给每个AI叠一层“审核”,审核这个AI产物是否符合事实,是否符合“人类正常逻辑”,如果审核出问题的那就直接打入小黑屋。最后,面对当今社会人类运用AI来诈骗人类这种问题,比如吞钱,泄露个人隐私等。首先我认为可以“加强大家的防诈骗意识”,多罗列一些诈骗方式和诈骗结果展示给大家,让大家有一个防御意识。其次我认为有些AI的代码真的需要审核,审核这个AI到底是用来“干什么的”,有种带有侵入性的AI我觉得有必要经过国家公安局认证后再进行下一步发行操作,并且审核这个AI代码里是否带有病毒。以及我认为有一些“诈骗性”的AI比如说“AI换头技术”“AI换声线技术”这种比较“阴”的AI,这种AI使用用户真的需要一种被“正规监视”,查看用户的银行卡收入是否有不正当收入,以此避免更多AI诈骗案例。 -
时文讨论-如何看待“AI一本正经胡说八道”
在今天的时文讨论中,我们进行了关于AI“一本正经胡说八道”的研究。很多人认为AI总是正确的,或者说AI说什么都是对的。但其实他有时会生成看似合理,但实际上不准确或虚构的内容。经过老师的讲解,我明白AI出现“幻觉”产生的原因是生成式AI的工作原理。那么AI内容生成原理是什么呢?答案是“续写”。意思就是AI并不是通过理解问题来生成答案,而是通过预测下一个最可能的词来生成文本。AI是通过用概率最大的续写词去写文章(生成内容),到最后的回答问题或者完成任务。另外,AI续写工作原理为神经原分类和激活(思考)。AI的这种神经元是模仿人类的神经元,只要AI神经元足够大,那么这就会影响AI所生成的文本的质量,这就是我们生活中说的“量变引起质变”。
此外,老师还给我们两个问题让我们进行小组讨论。问题一“AI是否具备真正的智能或理解能力?”问题二“AI的局限有哪些?”在回答问题一时我本来认为AI是不具备真正的智能或理解能力的。因为AI基于大量的训练数据,模仿语言模式生成答案,但并不理解词义或区分信息的真假。因此,AI可能会将训练数据中的碎片信息进行概率重组,生成看似合理但实际上不存在的细节。所以AI并不是通过真正的理解或推理来回答问题,他只是基于统计生成文本。但经过讨论后,我改变了我的观点,我认为AI他是具备理解能力的。AI有共情能力,如你对它发火或说你现在很伤心等情绪。它能够理解你的心情,并且给予你建议去开导你,从而解决问题。还有AI的情商很高,对于一些AI无法回答你的问题,它能够教你如何去查找信息,从侧面委婉地告诉你这类问题它不能回答你。对于问题二“AI的局限有哪些?”我们小组也讨论到了一点,AI不能创新,AI只能回答已知问题,没法用已知的知识去回答未知的问题。
这就是我们在时文讨论环节中所学到的知识,我知道了一些相关AI生成的原理和AI所说的并不是绝对的道理。 -
时文讨论反馈
今天的内容有关人工智能这个话题,虽然我平时也常常使用AI,但是这是我第一次了解AI背后的工作原理,比我想象你简单朴实的多——续写。每一次生成都要结合前面全部的内容,计算出一个概率最大答案最终续写出一个完整的段落。
这次讲座中,还解决了一个困扰我已久的问题——为什么AI会给出一些根本不存在的答案?这样的问题完全源自于生或原理——续写时会根据它学习过的文本进行生成,并产生一些错误的联想。
其实我并不认为AI具有理解能力,我看过一个叫作"中文房间"的悖论。一个完全不会中文的人随身携带一本字典进入一个由封闭房间,别人向房间里递入写有中文的字条。房间里的人就可以通过字典(或者翻译程序)和外界沟通,但是这是否说明他理解中文?我认为AI的工作原理与此一致,只是它将中文翻译为二进制代码。 -
- 你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
我遇到过AI幻觉,根据文章,AI幻觉
我觉得我缺少一些判断的基础立论知识所以不能妄下论断。但是根据我的基本了解,我认为AI不能理解。只能推算出某种观众或使用者所期待的答案,而不能像人一样将知识与所处的环境、时空,过去所学过的知识等等联系在一起。正如文中所说的,“AI始终都没有理解词意这一步” - 这篇文章有没有解决你对于AI的困惑?假如你有机会与AI领域的专家深入交流AI,你会问专家哪些问题?请列出你好奇的问题。
这篇文章一定程度上解决了我对于AI的困惑。我很好奇,我们今天可以让deep seek写西幻小说、武侠小说,这些创作中需要运用到想象力的部分,deep seek又是如何处理的呢?
- 你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?