全球主机交流论坛

标题: 人民日报:DeepSeek“乱编”坑惨大学生?这个话题冲上热搜! [打印本页]

作者: 吊打华伪    时间: 2025-3-31 09:00
标题: 人民日报:DeepSeek“乱编”坑惨大学生?这个话题冲上热搜!
https://mp.weixin.qq.com/s/nF-Jixpgh_Et3lvDP4cfjw


我之前说过,还有傻子粉蛆不服:
https://www.iloc.eu.org/thread-1394610-1-1.html
作者: confident    时间: 2025-3-31 09:17
其实chatgpt也会瞎编,AI都有幻觉问题,他们会自以为是的推理出不存在的东西。
只是感谢美国人的AI禁止出口规定,让中国人晚了一两年体验到这个幻觉而已。
作者: 吊打华伪    时间: 2025-3-31 09:21
confident 发表于 2025-3-31 09:17
其实chatgpt也会瞎编,AI都有幻觉问题,他们会自以为是的推理出不存在的东西。
只是感谢美国人的AI禁止出口 ...

我原贴说了 概率差了好几倍。  deepseek太明显了。

给的教程 命令的参数,怎么改都不对,最后google一看根本不存在。
作者: 天尊    时间: 2025-3-31 09:21
要真是那么智能 大把人要失业了 AI律师  电子法官
作者: fadaixiaohai    时间: 2025-3-31 09:26
chatgpt   claude  都会编一些不存在的东西
用来写代码就会发现,例如使用不存在的系统方法、使用不存在的第三方库
最离谱的是还能解释一大堆   为什么用这个不存在的方法  可怕
作者: ls2829373    时间: 2025-3-31 09:36
代码内容必须要审核。内容存在幻觉。需要自己甄别。
作者: Typeboom    时间: 2025-3-31 09:49
一群傻逼觉得这玩意遥遥领先,绝对正确
作者: plyu007    时间: 2025-3-31 10:03
知道现在模型原理的人都知道边界
但,还是有很多傻逼无脑信
作者: 何处不惹尘埃    时间: 2025-4-1 03:40
用 AI 做学术, 如果被挂科实属活该.

----------------------------------------------------------------

小尾巴~~~~~
作者: 围观者    时间: 2025-4-1 06:36
我也发现了,但我识别了

我在下面回复你说错了,它认错倒挺积极的
作者: jamesbonde    时间: 2025-4-1 07:10
围观者 发表于 2025-4-1 06:36
我也发现了,但我识别了

我在下面回复你说错了,它认错倒挺积极的

即使它没错,你告诉它错了,它也会认错。呵呵
作者: plyu007    时间: 2025-4-1 09:39
围观者 发表于 2025-4-1 06:36
我也发现了,但我识别了

我在下面回复你说错了,它认错倒挺积极的

就算是正确的,你回复说不对,它也认错的,逻辑上设定:
假设你评估的优先比比它的高(至少目前是这样的
作者: williamc2    时间: 2025-4-1 11:26
本来AI做的东西,自己就是要在审查过一遍
怎么有人查都没查就交上去了
作者: brp30vsw    时间: 2025-4-1 11:31
我之前问一个技术问题,ds和gpt两者回答高度相似,并且给我一些不存在的参数或者设置项,误导了我很长时间!
作者: 美国VPS综合讨论    时间: 2025-4-1 12:58
AI都只能参考,自己没有能力明辨是非的话会闹笑话。现在的大学生连“学期”都能说成“赛季”,精神状态堪忧
作者: jep    时间: 2025-4-1 13:12
因为傻逼根本不知道这类模型到底可以做什么事情
作者: rqp    时间: 2025-4-1 16:02
DeepSeek本来就是参考
被坑能怪谁




欢迎光临 全球主机交流论坛 (https://www.iloc.eu.org/) Powered by Discuz! X3.4