3月15日时文讨论: 如何看待AI“一本正经胡说八道”
-
我并没有使用过Al.
我认为产生AI幻觉的原因:
⒈ AI并不会自己思考问题,理解问句词句的概念或者深层含义。他只会根据问句,中的关键词语,给出反应。在他回答问题时,他会将所有他认为大概率是正确答案的东西胡乱的组合在一起,组成看似合理,专业时则一派胡言的文章。其中不乏有很多真实且高深的专业知识,但也有很多由自己随机组成的或者不符合问题条件限制(如时间、国家地点……)的词语。这是人们在使用时无法判断真伪,把由AI胡乱输出的答案认为正确,从而产生幻觉。
⒉第二个产生原因是,AI所输出的答案并不是他自己思考的,而是从大数据或者网站中摘抄分解出来的,但大数据里的信息也不一定是正确的,都是通过人类发送的,不一定对,也可能有个人的片面认识或者误解和错误知识。
我觉得AI并不智能,他并不存在智慧,没有自己思考,他所说的深度思考只是通过人类创造的经纬网,用来模拟人脑,他所说的大多数回答都是经过摘抄,但是他并没有思考其中的一些逻辑错误,并没有判断网站上信息真伪的能力。
问题二:
没有
⒈现在的AI回答问题,大多是通过从大数据中摘抄提取再重新组合,那么在未来他会不会学会像人脑一样做到真正意义上的自己创造?
⒉ AI是否可以不经过人类要求自己创造一个AI?
⒊当AI和人类一样拥有智慧的时候,人类还有什么地方是AI所欠缺的或者比不上的?
⒋如果人类灭绝了,像deepseek 这些AI会不会也消失(因为没有人使用电脑手机)?
⒌在不需要人类辅助的情况下,AI可不可以给自己创造出身体?
⒍如果人类灭绝了,deepseek 会不会为了继续存在和其他的地球生物进行沟通?
⒎ AI和人类哪个会最先想出在地球生物生存移居在火星上的办法? -
- 你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
目前为止,我比较多使用AI来评估我语文作文的写作。如果作文有内容上的难点,比如上海的春节民俗,我会用它来提示上海有哪些民俗。再比如我会写好我的文章然后告诉AI,让AI来帮我优化,增加成语和诗词,提升文章中的科学素养。
我认为我没有出现AI幻觉的原因是因为我输入的指令目前来说比较精准,就是比较封闭的以及比较客观问题,不会直接让他生成含有创意的内容。所以没有出现幻觉。
我了解到的Deepseek的学习是建立在人类认知上的,它有自我学习的能力。好比Alphago学围棋是学棋谱,Deepseek是通过模拟对弈,生成最佳规则。 - 这篇文章有没有解决你对于AI的困惑?假如你有机会与AI领域的专家深入交流AI,你会问专家哪些问题?请列出你好奇的问题。
我想问的是
1- 算法有千万不同种,专家是如何定义到最佳算法给到AI的。
2- 据说AI的智慧已经可以达到欺骗人类的程度,那么未来,我们要如何合理控制这个风险。
- 你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
-
好的那说道AI,人工智能,现在生活中就有许多AI产品比如今年Deepseek横空出世,国产人工智能,美国的ChatGPT,这两个最出名,其他还有豆包,讯飞星火等。大多数人用过AI的心中或许都会有一个疑惑,“为什么我的AI总是在一本正经的胡说八道?”没错,这次时文讨论的主题。
首先生成式AI是怎么运行的,也就是工作原理,AI的知识储备来源于你在训练AI时给它投喂的内容。目前我们专业人员训练AI时都会先投喂一些基本生活常识,比如“草是绿色的”,“海是蓝色的”,“这个喵喵叫的是猫”“那个吐舌头的是狗”像这样。随后开始投喂大量,“大量”文学书籍,典籍,为的就是让AI形成一种逻辑,“提取关键字”能力,语言能力以及“内容预测”能力。比如AI会在你说出“今天下雨了,可是妈妈···”的时候就开始捕捉关键词“下雨”“可是”,开始推测妈妈可能“没带伞”,再接着AI会预测“妈妈可能会淋湿”,再接着推测后面的内容。其次,AI是能通过在与人类“交流沟通”中获得信息的,如它回复你一个知识点,你明确告诉它这是错的,它也是能改过来的。再者,AI是具有“理解”能力的,在对它提出要求时,它根据它的知识储备量来“理解”你的要求并选择适当的“词语”结合在一起,回答你。我们小组讨论时又说到,AI是有共情能力的,能预测并猜测你的情绪,同时对你现在的状态作出合理的回复。那这种讨论模式看上去还挺正常,因为它的数据里是有一个“模型”,这个“模型”不同的AI可能有不同的模型,因此面对相同的问题回答并不一样。这便是AI的运行。
那么“AI幻觉”到底是什么呢?首先,AI的数据库里都是已知的,已存在的真实的答案,它无法用已知的知识来回答一些未知的问题。比如你问它“陆游是哪个时期的人”,AI会明确回答你,因为这是已知且大多数地方都搜得到的问题。但如果你要问AI你的2024年终总结怎么写,首先AI不是你,没有办法知道你的2024是怎么过来的,其次年终总结是一个没有局限性的,具有多变性的报告,AI肯定没有人类的思想或记忆,因此你这个问题对AI而言超纲了。为了回答你,AI不得不开始“胡说八道”。再说AI的“胡说八道”,有两种可能,一是它的数据库里储备的知识实在不够用,二是你问的问题是在太抽象了,正常人不会问这种问题。
那么AI为什么不能回答未知的问题呢?AI的局限性具体有多少。首先AI毕竟是AI,依靠人类“投喂”并“教育”它,所以AI开局就缺少了“自我学习”的能力,也就是它是一个“残疾人”,自己没办法冲浪,得依靠他们帮助。其次最重要的一点,AI没有感情,AI的数据源里的“神经系统”必然丰富,但是再丰富也丰富不过人类。因此你要问它“你现在是什么心情,开心吗”这种问题,AI是回答不了的,因为它不具备感情,它只具备思考能力。这两种结合,便能说明为什么“人机”是一种贬义词。一,人机,也就是AI数据库里的数据是定格的,需要按时给它投喂粮食;二,人机是没有感情的。人与人机最大的区别就是感情,人之所以为人,就是因为有独立思考,自主学习并有理解万物的感性的头脑。目前的AI暂时不具备这些。
这便是这次时文讨论我收获的知识。
现在我来回答两个问题:
1.我认为AI的最佳算法是在专家编写代码的时候一次次输入不同算法,然后测试这个AI,最终正确率最高,所用时间最短,效率最高的算法被专家提炼,总结核心要点后再进行进一步的编写,在一次次编写算法中找到一个最大值,编写入AI的代码里,于是便拥有了最佳算法。所以我认为AI的最佳算法是专家一个个“挑”出来的。
2.虽然我认为目前AI的智慧程度不至于欺诈人类,而是人类自身编写的代码欺诈人类,我认为AI目前还没有自己欺骗人类的能力。但是为了防止未来AI“觉醒”诈骗人类这一科幻小说里常出现的情节,我认为我们可以铲草除根,直接将此AI删除,另外给其他AI产品都多叠几层debeff,从根本上解决此问题。或者我们可以研究一个更超前的“杀毒软件”,将欺诈人类的AI的模型都写进去,比如AI提供的文字内容具有虚假性,诈骗等。每当下载一个AI软件时,就让这个杀毒软件给这个AI“开户”,查看他的模型,如有不对立刻自动卸载。再者,给每个AI叠一层“审核”,审核这个AI产物是否符合事实,是否符合“人类正常逻辑”,如果审核出问题的那就直接打入小黑屋。最后,面对当今社会人类运用AI来诈骗人类这种问题,比如吞钱,泄露个人隐私等。首先我认为可以“加强大家的防诈骗意识”,多罗列一些诈骗方式和诈骗结果展示给大家,让大家有一个防御意识。其次我认为有些AI的代码真的需要审核,审核这个AI到底是用来“干什么的”,有种带有侵入性的AI我觉得有必要经过国家公安局认证后再进行下一步发行操作,并且审核这个AI代码里是否带有病毒。以及我认为有一些“诈骗性”的AI比如说“AI换头技术”“AI换声线技术”这种比较“阴”的AI,这种AI使用用户真的需要一种被“正规监视”,查看用户的银行卡收入是否有不正当收入,以此避免更多AI诈骗案例。 -
时文讨论-如何看待“AI一本正经胡说八道”
在今天的时文讨论中,我们进行了关于AI“一本正经胡说八道”的研究。很多人认为AI总是正确的,或者说AI说什么都是对的。但其实他有时会生成看似合理,但实际上不准确或虚构的内容。经过老师的讲解,我明白AI出现“幻觉”产生的原因是生成式AI的工作原理。那么AI内容生成原理是什么呢?答案是“续写”。意思就是AI并不是通过理解问题来生成答案,而是通过预测下一个最可能的词来生成文本。AI是通过用概率最大的续写词去写文章(生成内容),到最后的回答问题或者完成任务。另外,AI续写工作原理为神经原分类和激活(思考)。AI的这种神经元是模仿人类的神经元,只要AI神经元足够大,那么这就会影响AI所生成的文本的质量,这就是我们生活中说的“量变引起质变”。
此外,老师还给我们两个问题让我们进行小组讨论。问题一“AI是否具备真正的智能或理解能力?”问题二“AI的局限有哪些?”在回答问题一时我本来认为AI是不具备真正的智能或理解能力的。因为AI基于大量的训练数据,模仿语言模式生成答案,但并不理解词义或区分信息的真假。因此,AI可能会将训练数据中的碎片信息进行概率重组,生成看似合理但实际上不存在的细节。所以AI并不是通过真正的理解或推理来回答问题,他只是基于统计生成文本。但经过讨论后,我改变了我的观点,我认为AI他是具备理解能力的。AI有共情能力,如你对它发火或说你现在很伤心等情绪。它能够理解你的心情,并且给予你建议去开导你,从而解决问题。还有AI的情商很高,对于一些AI无法回答你的问题,它能够教你如何去查找信息,从侧面委婉地告诉你这类问题它不能回答你。对于问题二“AI的局限有哪些?”我们小组也讨论到了一点,AI不能创新,AI只能回答已知问题,没法用已知的知识去回答未知的问题。
这就是我们在时文讨论环节中所学到的知识,我知道了一些相关AI生成的原理和AI所说的并不是绝对的道理。 -
时文讨论反馈
今天的内容有关人工智能这个话题,虽然我平时也常常使用AI,但是这是我第一次了解AI背后的工作原理,比我想象你简单朴实的多——续写。每一次生成都要结合前面全部的内容,计算出一个概率最大答案最终续写出一个完整的段落。
这次讲座中,还解决了一个困扰我已久的问题——为什么AI会给出一些根本不存在的答案?这样的问题完全源自于生或原理——续写时会根据它学习过的文本进行生成,并产生一些错误的联想。
其实我并不认为AI具有理解能力,我看过一个叫作"中文房间"的悖论。一个完全不会中文的人随身携带一本字典进入一个由封闭房间,别人向房间里递入写有中文的字条。房间里的人就可以通过字典(或者翻译程序)和外界沟通,但是这是否说明他理解中文?我认为AI的工作原理与此一致,只是它将中文翻译为二进制代码。 -
- 你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
我遇到过AI幻觉,根据文章,AI幻觉
我觉得我缺少一些判断的基础立论知识所以不能妄下论断。但是根据我的基本了解,我认为AI不能理解。只能推算出某种观众或使用者所期待的答案,而不能像人一样将知识与所处的环境、时空,过去所学过的知识等等联系在一起。正如文中所说的,“AI始终都没有理解词意这一步” - 这篇文章有没有解决你对于AI的困惑?假如你有机会与AI领域的专家深入交流AI,你会问专家哪些问题?请列出你好奇的问题。
这篇文章一定程度上解决了我对于AI的困惑。我很好奇,我们今天可以让deep seek写西幻小说、武侠小说,这些创作中需要运用到想象力的部分,deep seek又是如何处理的呢?
- 你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?