跳转至内容
  • 版块
  • 最新
  • 标签
  • 热门
  • 用户
  • 群组
皮肤
  • Light
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • 默认(不使用皮肤)
  • 不使用皮肤
折叠

我的精神家园

  1. 主页
  2. 我思故我在
  3. 3月15日时文讨论: 如何看待AI“一本正经胡说八道”

3月15日时文讨论: 如何看待AI“一本正经胡说八道”

已定时 已固定 已锁定 已移动 我思故我在
52 帖子 47 发布者 2.2k 浏览
  • 从旧到新
  • 从新到旧
  • 最多赞同
登录后回复
此主题已被删除。只有拥有主题管理权限的用户可以查看。
  • 段 离线
    段 离线
    段明泽
    写于 最后由 编辑
    #20

    问题一:
    我在使用AI的时候也遇到过AI的大模型幻觉,而根据文章,AI的幻觉根源其实并不是我搜索的信息流,而是AI特殊的处理问题的形式——transformer。它在处理词的时候,会将各种词拆解成一个个包含位置信息的词源,这样可以方便进行数字编程和计算处理,让AI更灵活地处理各种语言。但是由于这种拆分,AI并不会进行理解词义这个步骤,它更像是在进行一种预测。在这个过程中,它按照统计的相关数据选择它认为是最可能的组合,但并没有考虑其真正的含义或引申义。它的答案都是基于概率分布去看待重点,只能尽量准确地预测后续应出现的单词或词句。它只是在模仿基本的训练,然后尽可能准确地进行文本续写。所以我觉得AI其实并没有智能,虽然它深沉的话语充满了人情味,感觉就像一个真人在和你说话,理解的程度也很深,但是它就是一个计算机,把训练存储的数据一一提取出来,组成句子,看似十分精准,但是它并不理解所回答的问题,不能说它智能。
    问题二:这篇文章更加完善了我对AI大模型幻觉的理解。倘若我能与AI领域的专家进行深入交流,我会问以下这几个问题:
    (1)有什么办法能让我更方便地找出AI大模型产生幻觉的错误之处?
    (2)将AI大模型的训练内容进行修正或者升级,能不能降低大模型出现幻觉的概率?(3)可不可以将AI大模型独特的transformer系统进行改变或者升级来降低大模型幻觉的概率?AI的前景如何?

    1 条回复 最后回复
    0
    • 施 离线
      施 离线
      施旻萱
      写于 最后由 编辑
      #21

      问题1:我有遇到过AI幻觉。我问AI陈从周修复豫园的设计理念,它告诉我理念之后还给了我一张豫园的照片,但是图片上却有一个在水中的类似于菩萨的雕像,我觉得很奇怪,就问它,它告诉我这是在点春堂景区,但点春堂没有面积较大的水和雕塑,为了确保准确我就问它点春堂有没有雕塑,它却告诉我没有,这就矛盾了。我觉得AI出现幻觉是因为AI会注意我们问题中的关键词,条件,关联词等,根据高质量训练集的内容进行总结模仿写出答案,但是它并不理解关键词的意思,只是模仿写出看似合理的答案这其中会有它自己瞎编的内容。因为这一点我觉得AI不是特别智能。
      问题2:通过文本,我了解到让AI不出错其实是不可避免的,毕竟它不理解词语的意思,为了减少它胡说八道的情况就要把问题问清楚而不是给它一个比如“理念”的大概念。我有两个问题:第一,为什么在AI给出总结模仿后的答案前,不先根据自己的数据库来搜索一下自己的答案是不是瞎编的,它的数据库肯定是足够大的?第二,为什么AI对同一个问题的回答不一样,这样胡说八道的可能性就更大?

      1 条回复 最后回复
      0
      • 刘抒逸刘 离线
        刘抒逸刘 离线
        刘抒逸
        写于 最后由 编辑
        #22

        ⒈你在使用ai时,有没有遇到过“al幻觉”?根据文章,ai幻觉产生的原因是什么?你觉得ai有没有智能?
        有。有一次我写了一首小诗,发现里面有些字不太合适,就问deepseek“柳芽”有什么别称,发现别称是对的,但是佩的诗词出处却是混乱的。根据文章,我觉得ai出现幻觉是因为它并不是一个单纯的帮助你快速寻找正确答案“资源库”,而是有创造性的,由于训练时只是给它一个数据库,训练ai组织语言,所以它并没有真正像人一样理解词意,仅是将词语与常用的另一些词语关联起来,目前还没有做到真正的“智能”。
        ⒉ 这篇文章有没有解决你对于AI的困惑?假如有机会,你会问AI领域的专家什么问题?
        并不完全。这几篇文章让我理解了ai是一个“生成式”的,且不理解词意,纠正了我之前对ai是“无所不知的数据库”的错误认知。但是也带起了我的疑惑:
        ⑴ 既然ai出现幻觉,降低温度虽能消除幻觉,但又会让ai失去额外价值,那么将来会有办法找到两全其美的方法吗?
        ⑵用户输入什么内容会对ai有诱导性或让ai无法回答?

        1 条回复 最后回复
        0
        • 李 离线
          李 离线
          李心皓
          写于 最后由 编辑
          #23

          1,我认为ai幻觉就是指过度的依赖ai从而对真正的显示和虚拟的世界产生一定的幻觉。我认为ai不够智能,她不能完全的体会你想要得到的答案。
          2,有。如果和专家交流的话,我最想问的问题是如何控制ai以后的发展。

          1 条回复 最后回复
          0
          • 吕 离线
            吕 离线
            吕翰林
            写于 最后由 编辑
            #24

            1我在使用AI时遇到过AI幻觉,根据文章AI幻觉的原因是因为他的预测能力没有那么准确,我觉得AI没有智能,因为他不理解,只是按照人类给他的模型来推测下一个词语。
            2这篇文章解决了我对于AI的疑惑

            1 条回复 最后回复
            0
            • 贺心语贺 离线
              贺心语贺 离线
              贺心语
              写于 最后由 编辑
              #25

              1.你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
              有遇到过。AI不是在查找答案,而是在预测,下一个要说的最合理的词应该是什么,基于transformers模型,AI将一整个指令分解为一个一个的词,再用注意力机制分析每一个词后面应该对应的词是哪一个,最后将这些分析出来的词语组合成一个完整的句子。也正是因为如此,AI并没有真正理解句子的能力,也就造成了AI幻觉的出现。

              2.这篇文章有没有解决你对于AI的困惑?假如你有机会与AI领域的专家深入交流AI,你会问专家哪些问题?请列出你好奇的问题。
              有,问题:AI是在什么样的背景下被创造出来的?

              1 条回复 最后回复
              0
              • 余 离线
                余 离线
                余路
                写于 最后由 编辑
                #26

                1、你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
                没有,几乎没用过ai,少有的几次可能没看出来。原因是它不理解词意,只会预测。我认为它没有,它只能够基于统计生成文本。
                2、这篇文章有没有解决你对于AI的困惑?假如你有机会与AI领域的专家深入交流AI,你会问专家哪些问题?请列出你好奇的问题。
                解决了一部分,我的问题是AI在未来是否有可能实现真正的理解能力?怎么去平衡ai的准确度和创造力?

                1 条回复 最后回复
                0
                • 张 离线
                  张 离线
                  张雨芎
                  写于 最后由 编辑
                  #27

                  1.你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
                  有遇到过,根据文章,AI 幻觉产生的原因在于它对下一个要说的最合理的词的推测不完全准确。AI无法理解它生成的词句的意思,但它能够预测到下一个应该说什么。
                  2.这篇文章有没有解决你对于AI的困惑?假如你有机会与AI领域的专家深入交流AI,你会问专家哪些问题?请列出你好奇的问题。
                  有。我会想问如何快速分辨以及解决AI幻觉

                  1 条回复 最后回复
                  0
                  • 官 离线
                    官 离线
                    官乐欣
                    写于 最后由 编辑
                    #28

                    1
                    我曾经一次用deep seek搜索一篇课内文言文和一篇课外文言文之间联系和关系的时候,我发现deep seek其实不能够正确的给出我想要的信息。 deepseek将另外一篇其他作者写的同名的古文发送给了我。但是当我给他解释让他明白我说的是另外一篇古文的时候,他依然重复回答了。之前他搜索出来这篇古文,并且用一种非常可笑的方式来修正自己的回答。他仍然用了原来那篇古文的内容,但是却将这篇古文的作者擅自修改了。
                    2
                    我比较想要了解ai幻觉在技术方面有没有突破的可能。当我们需要ai的便利,但同时又担心他给予的信息是否准确的时候,我们应该采取一种什么样的方式?

                    1 条回复 最后回复
                    0
                    • 陈 离线
                      陈 离线
                      陈煜
                      写于 最后由 编辑
                      #29

                      你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
                      有,尤其是在查讲坛内容里的材料的时候 ;我现在对ai的感觉就是只能问简单点的问题和有逻辑性的问题(数学题),其他的没办法完全理解你的意思
                      这篇文章有没有解决你对于AI的困惑?假如你有机会与AI领域的专家深入交流AI,你会问专家哪些问题?请列出你好奇的问题。
                      如果说把现在市面上的ai模型整合在一起是否会得到一个较大的提升
                      未来的ai模型是否会偏向专业化领域的单独训练

                      1 条回复 最后回复
                      0
                      • 刘 离线
                        刘 离线
                        刘子锐
                        写于 最后由 编辑
                        #30

                        你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
                        的确会有些莫名其妙的话,看似非常合理,但却是杜撰的。词元会被拆分重组,可能会有不合理的地方。我认为他们是没有独自思考的能力。
                        这篇文章有没有解决你对于AI的困惑?假如你有机会与AI领域的专家深入交流AI,你会问专家哪些问题?请列出你好奇的问题。
                        大致的问题是解释的比较明白
                        在发展迅速的背景下,是否会阻止ai有自我思考的能力,如何控制,我们怎么知道他有没有这种能力。

                        1 条回复 最后回复
                        0
                        • 叶 离线
                          叶 离线
                          叶韦汝
                          写于 最后由 编辑
                          #31
                          1. 你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
                            我暂时没有发生过文章中提到的AI幻觉,可能是因为我平时常用AI来查查资料,不经常用它的生成功能吧,不过有一次我让它根据张乐平的风格生成一副有关三毛的漫画,他生成出来的三毛却有三条腿,也不止三根头发,不知道算不算一种AI幻觉?;AI幻觉的产生是基于AI的工作原理的,AI会预测一个词接下来的词大概是什么,如果这种预测不符合实际,就会出现AI幻觉;我觉得AI是没有智能的,因为它只是通过自己接受的数据进行预测和模仿,和“鹦鹉学舌”是一个道理,只不过它比鹦鹉更聪明一些罢了
                          2. 这篇文章有没有解决你对于AI的困惑?假如你有机会与AI领域的专家深入交流AI,你会问专家哪些问题?请列出你好奇的问题。
                            这篇文章基本解决了我对AI的困惑,尤其是有关AI幻觉的部分;我可能会问专家:AI模型的训练数据范围是怎样的?会在输入客观数据的同时,输入一些主观的内容吗?阿西莫夫短篇小说里的正子脑是有可能实现的吗?
                          1 条回复 最后回复
                          0
                          • 许 离线
                            许 离线
                            许铭轩
                            写于 最后由 编辑
                            #32

                            1.你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
                            目前没有。Ai幻觉出现的原因主要源自它自身的运算机制。我认为ai幻觉就是应为ai没有智能,他只能根据数据灌输处理问题,也无法判断信息的来源是否准确,所以回答中可能会带有个人观点,所以ai现阶段的几乎所有智能都是人类赋予的。
                            2,。这篇文章有没有解决你对于AI的困惑?假如你有机会与AI领域的专家深入交流AI,你会问专家哪些问题?请列出你好奇的问题。
                            有。我会问:

                            1. 在正确信息大面积的覆盖下能否消除ai幻觉的影响。
                              2.为什么不将ai分为两个板块,一个创造,一个准确。
                              3.我们能否快速辨别ai信息是否准确
                              4.为什么ai无法理解内容真正的意思
                            1 条回复 最后回复
                            0
                            • 杨婧棋杨 离线
                              杨婧棋杨 离线
                              杨婧棋
                              写于 最后由 编辑
                              #33

                              1.你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
                              我在使用deepseek帮我制定台州旅游攻略的时候,他让我在去完国清寺之后去一家里那很近的咖啡店,但当我去查了之后才发现那家咖啡店距离国清寺有8公里的距离……
                              我觉得AI还是不能去理解我们所给出的指令,它的本质还是从我们的指令中提取关键词,然后在从别处(可能是它的资源库或者是网上)去搜寻答案再通过程序中赋予它的组织语言的能力将这些信息编定成我们所需的答案,但本质还是通过程序设计做到的,并没有真正的理解
                              2.这篇文章有没有解决你对于AI的困惑?假如你有机会与AI领域的专家深入交流AI,你会问专家哪些问题?请列出你好奇的问题。
                              基本上把我日常对于AI的困惑解决了。
                              如果有一天AI真的能理解人类情感,能模仿共情,会如何影响人际关系,作为技术人员,你们是否会做出组织它发展下去的行动?

                              1 条回复 最后回复
                              0
                              • 王 离线
                                王 离线
                                王乾宇
                                写于 最后由 编辑
                                #34
                                1. 你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
                                  有过这种经历,我给他喂物理题的时候,他会在过程中给出正确的方程式和定理,但在最后结果的输出上有时会输出某种不可能的情况。根据文章ai幻觉产生的原因是比较复杂的,我觉得根本的是人类对于人类思维的产生过程可能不太了解,所以让ai根据大量数据中词语出现的概率输出结果,让他看起来智能,符合正常的思维。因此,我觉得如果transformer模型运行的逻辑是文章中描述的话,目前的ai并不算智能
                                2. 这篇文章有没有解决你对于AI的困惑?假如你有机会与AI领域的专家深入交流AI,你会问专家哪些问题?请列出你好奇的问题
                                  我觉得这篇文章解决了我对于ai背后运行逻辑的问题,但对于为什么会有这种逻辑的问题没有解决。我可能会问你们对于人工智能的定义是什么,未来会怎样改进模型,目前遇到了什么科学原理上或者技术上的瓶颈
                                1 条回复 最后回复
                                0
                                • 陈 离线
                                  陈 离线
                                  陈星宇
                                  写于 最后由 编辑
                                  #35

                                  1.你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
                                  我自己没有碰到过,甚至问了Deepseek一些“法国与月球之间的殖民地冲突”、“如何换圆珠笔中的铅芯”这样的问题,它也能告诉我其中的错误。根据文章,AI幻觉主要产生的原因是因为AI的思考逻辑。它是通过分析关键词来引申出训练模版中最相似的答案,然后组装出答案。我觉得AI有”智能”,但若问它是否能理解就值得深思了。若是按照人类的理解法,AI是永远无法“理解”的。但是每个物种都有它的分析逻辑,AI是靠训练数据来“理解”这个世界的,如同狗能“听懂”人类说话一样。
                                  这篇文章有没有解决你对于AI的困惑?假如你有机会与AI领域的专家深入交流AI,你会问专家哪些问题?请列出你好奇的问题。
                                  之前我一直困惑AI如何能思考?我刻板印象中的程序是按照一条条编码来严格执行的,模型训练只能帮助下棋AI、识别物体AI等一些利用枚举法来完成事务的AI。看完这篇文章,我理解了AI能思考的大致方法。对于AI幻觉,我并没有太大吃惊,毕竟没有东西不会犯错,出现AI幻觉顶多乐一乐乐一乐。
                                  若我能与AI领域的专家深入交流AI,我有以下一些好奇的问题:
                                  1.为什么同一个AI训练集中的数据都一样,问其同一个问题时却会有无数种不同的答复?
                                  2. AI可以上网吗?意思是AI的答复是实时更新的,还是每一年或月会重新导入一次训练集与数据?
                                  3. AI为什么能创造出世界上未被发明出来的东西?是怎么思考到的?

                                  1 条回复 最后回复
                                  0
                                  • 文史 王宜然文 离线
                                    文史 王宜然文 离线
                                    文史 王宜然
                                    写于 最后由 编辑
                                    #36

                                    时文预习:
                                    Q1:你在使用AI时,有没有
                                    遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
                                    A1:我并没有对某个领域特别的深入学习,并且我平时不大用AI,所以就并不清楚自己是否遇到过“AI幻觉”。
                                    AI幻觉产生的原因应该是因为,AI回答问题是对问题给出的词进行分析从而对问题得出下文,而“得出下文”这一动作是基于AI训练所越发成熟的,所以得出的下文是基于AI训练已有的知识储备。AI的回答是自行提炼生成的,这也代表着必然会有与现实的偏差,而我理解于这些偏差就是“AI幻觉”的基础。
                                    “智能”指的是“有智慧和能力”,我觉得AI完全有“能力”,但它没有“智慧”。材料中有提到“从内部结构到训练过程,AI都没有‘理解词意’这一步”,所以说AI虽然能够给出契合的回答,但那是它基于提问者提出的问题的拆解推理,它本质并没有理解词的意思或句的意思,只是进行推测而已。但换句话来说,“理解”这一词是基于有自主思考的生物来说,我觉得AI本身就不拥有自主思考能力,所以它也不会有“理解”这一行为。

                                    Q2:这篇文章有没有解决你对于AI的困惑?假如你有机会与AI领域的专家深入交流AI,你会问专家哪些问题?请列出你好奇的问题。
                                    A2:这篇文章让我了解了AI的运行原理和“AI幻觉”的出现与其原理。如果说问题的话,今天中午我在看过铭辰同学朋友圈时有看到他提的一个问题,大体就是AI到底是像人好还是不像人好,我觉得这个问题很好,这或许也能使AI在接下来的创作中确定创作的方向。
                                    但说到底AI到底该不该像人?我觉得不像为好,AI终究与人不是同一个体,它虽是人类的产物,但它也是服务于人的工具,如果让AI成为人,那这或许就不符AI创作的核心理念了(我的猜测)。
                                    说回到提问题,我自己想提的问题是“如果AI继续创作创新的话,运用AI的用户是否还要设立为大众向?是否人人都能使用AI?”

                                    1 条回复 最后回复
                                    0
                                    • 韩 离线
                                      韩 离线
                                      韩雨馨
                                      写于 最后由 编辑
                                      #37

                                      时文讨论-如何看待AI“一本正经胡说八道”
                                      1.在使用 AI 时,我确实遇到过“AI 幻觉”。例如,AI 有时会生成看似合理但实际上不准确或虚构的内容。根据文章,AI 幻觉产生的原因是生成式 AI 的工作原理。AI 并不是通过理解问题来生成答案,而是通过预测下一个最可能的词来生成文本。它基于大量的训练数据,模仿语言模式生成答案,但并不理解词义或区分信息的真假。因此,AI 可能会将训练数据中的碎片信息进行概率重组,生成看似合理但实际上不存在的细节。
                                      我认为 AI 并不具备真正的“智能”或理解能力。它只是基于统计生成文本,而不是通过真正的理解或推理来回答问题。
                                      2.这篇文章在一定程度上解答了我对 AI 幻觉的疑问,特别是关于 AI 如何生成文本以及为什么会产生幻觉的解释。
                                      假如我有机会与AI领域的专家深入交流,AI我会问专家的问题:
                                      AI 幻觉是否可以完全消除,或者我们是否只能通过某些方法来减少幻觉的发生?
                                      在未来的 AI 发展中,是否有可能会开发出能够真正理解语义和上下文的 AI 模型?
                                      如何设计更好的用户界面和提示词,以帮助用户更有效地与 AI 交互,减少幻觉的影响?

                                      1 条回复 最后回复
                                      0
                                      • 文史书院刘瑞祺文 离线
                                        文史书院刘瑞祺文 离线
                                        文史书院刘瑞祺
                                        写于 最后由 编辑
                                        #38

                                        1.你在使用AI时,有没有遇到过“AI幻觉”?根据文章,AI幻觉产生的原因是什么?你觉得,AI有没有“智能”(它理解吗?)?
                                        呃,因为用ai用的比较少,所以也大概没有遇到过ai幻觉。
                                        AI幻觉表面为AI将自身已有的一堆信息组合虚构出了一个看似真实的虚假事件。AI幻觉产生的原因是AI基于给出的文字按照自身拆解后得出的各个分开的词汇,根据自身的数据库中对应的答案,推测人类希望的回答方向。在一些领域之中,AI依据数据库所得出的对应词汇的回答,与使用者一开始所希望的使用方向并不相同,比如材料中是要介绍博物馆,但AI却是以资料之中钱庄的种种用途,去尽量满足这个要求,把这些信息套到这个问题之上。
                                        至少我现在认识的AI已经远没有之前想象的那么“智能”,有点怯魅了。但AI仍然堪称是智能的,虽然其只能以只言片语的结合来以自己的数据库结合,进行匹配、组合。它无法真正去理解一个句子,也就不会真正理解到提出的问题的全部,而其认识到的词汇,虽然会与后面的词进行一定的结合,但实质仍是以最常用的释义来推测答案,而非真正能够依靠几个词语的组合理解词汇在句子中的真正含义,它并不能达到真正而较为完全的理解。

                                        2.这篇文章有没有解决你对于AI的困惑?假如你有机会与AI领域的专家深入交流AI,你会问专家哪些问题?请列出你好奇的问题。
                                        解决了我对AI的一些困惑,比如AI如何理解各种的语言语句,并如何来得出问题的答案。
                                        首先我肯定想问,什么时候会有一个新的模型,超越2017年的transformer的处理能力,能够实现对于句子的处理?
                                        然后,AI是否能够利用这种语言模型实现更加近似于人类的“思考”,不那么依赖大数据给予的功能,以一种更加切合的方式进行理解,而非一味以最佳的方案进行描述。

                                        1 条回复 最后回复
                                        0
                                        • 吴 在线
                                          吴 在线
                                          吴泓岑
                                          写于 最后由 编辑
                                          #39

                                          预习作业1:我遇到过AI幻觉,“AI幻觉”之所以会产生,是因为生成式AI是一个学习者,当我们问AI问题时,它不是在找答案,而是在预判,下一句要说什么,什么词最合理。AI在阅读我们提供的信息时,通常会寻找关键词,并尝试预判下文会发生的内容。AI训练时用了大量高质量文本和书籍等资料,在内部训练过程时,AI并没有“理解词义”这一步骤。AI只能模仿并预测文本信息内容并续写文字。所以,当我们在询问AI一些训练数据中无法直接回答的问题时,AI便开始了胡说八道,生成不存在的文言文或网站等操作。同时,由于它的性能强,生成的内容太一本正经,即使有错误也会被蒙混过关,这便是“AI幻觉”
                                          预习作业2:假如我有机会与AI领域的专家深入交流,那我估计会问一些关于AI是如何训练,以及训练通常都运用些什么资料来确保内容的丰富性。曾经我上python课,在训练模型这一部分时,我留下了深刻印象。把多张照片发送给AI,这些照片倘若内容大差不差,AI或许会产生一种错觉,于是便形成了AI的认知缺陷。而生活中,人们问AI的问题也是五花八门,我发现像Deepseek似乎会回答每一个问题,即使是蒙骗过关。这其中的丰富的逻辑性与推断能力是如何训练,以及运用什么内容训练的呢?

                                          1 条回复 最后回复
                                          0

                                          • 登录

                                          • 没有帐号? 注册

                                          • 登录或注册以进行搜索。
                                          Powered by NodeBB Contributors
                                          • 第一个帖子
                                            最后一个帖子
                                          0
                                          • 版块
                                          • 最新
                                          • 标签
                                          • 热门
                                          • 用户
                                          • 群组