AI造假是今年最大风险第二名
1035 33
[1 楼] 开山鼻祖 [老坛泡菜]
24-1-12 22:54
第一名是极端天气。。天气变化无常其实是最大风险的常客,AI是不是今年上榜就不知道了。

相关信息可以网上查到,因为还有其他上榜因素不便这里说。
发布自 安卓客户端
[34 楼] couldiy [泡菜]
4-27 00:08
bird3000 发表于 2025-04-26 06:52
这回知道为社么这么多人研究本地部署了吧,本地部署的模型虽然小点,笨点,至少聊天禁区少点。

高手几行prompt就能越狱让LLM放飞自我了
[33 楼] bird3000 [陈年泡菜]
4-26 06:52
couldiy 发表于 2025-04-25 23:14
deepseek就是,根正苗红,只有两件事不敢说
这也不敢说,那也不敢说

这回知道为社么这么多人研究本地部署了吧,本地部署的模型虽然小点,笨点,至少聊天禁区少点。
[32 楼] couldiy [泡菜]
4-25 23:14
bird3000 发表于 2025-04-25 06:55
训练出一个个意识形态鲜明的AI,哈哈

deepseek就是,根正苗红,只有两件事不敢说

这也不敢说,那也不敢说
[31 楼] 雪国里的炭烧 [资深泡菜]
4-25 21:46
我是三月份时跟AI对了一次话,发现它也是需要被人工服务之后才能完成各项任务的。所以,它生产出来的东西,如果用户对这方面的内容不熟悉,就会被带到沟里去了。
[30 楼] bird3000 [陈年泡菜]
4-25 06:55
couldiy 发表于 2025-04-25 00:07
不用以后,就算现在搜索的结果,也是被SEO干扰的结果。
给ai的训练集投毒,根本不是个问题
训练出一个个意识形态鲜明的AI,哈哈
[29 楼] 开山鼻祖 [老坛泡菜]
4-25 01:48
生成字幕应该厉害,电脑放个老电影neng听出哪年版本。
发布自 iOS客户端
[28 楼] couldiy [泡菜]
4-25 00:07
allseasons 发表于 2025-04-23 18:35
从来就不相信AI的准确性。AI的回答可以用作线索,但如果想用在论文里,必须逐条地去人工查找证据。
以后一定会有别有用心的人设计欺骗AI。

不用以后,就算现在搜索的结果,也是被SEO干扰的结果。

给ai的训练集投毒,根本不是个问题
[27 楼] gg321 [老坛泡菜]
4-24 15:26
雪国里的炭烧 发表于 2025-04-24 13:26
但是,有意思是,同样的问题,有的AI可以回答,有的分析之后答案是换个话题。我就在线用三个AI来聊天,有次,其中一个一直坚持说,石破茂不是日本的首相,我忍不住训了一下它,结果它回复说,它们的信息库只更新到24年7月份。

如果答复很快就不是了会怎么样
[26 楼] gg321 [老坛泡菜]
4-24 15:25
allseasons 发表于 2025-04-23 18:35
从来就不相信AI的准确性。AI的回答可以用作线索,但如果想用在论文里,必须逐条地去人工查找证据。
以后一定会有别有用心的人设计欺骗AI。

重要结论我都是让ai给出信源,结果给了一堆公众号的小作文。。。。然后告诉ai这些不可靠,要求给出官网或权威专刊的,反复几次才能找到靠谱的
[25 楼] bird3000 [陈年泡菜]
4-24 13:54
雪国里的炭烧 发表于 2025-04-24 13:26
但是,有意思是,同样的问题,有的AI可以回答,有的分析之后答案是换个话题。我就在线用三个AI来聊天,有次,其中一个一直坚持说,石破茂不是日本的首相,我忍不住训了一下它,结果它回复说,它们的信息库只更新到24年7月份。

知识性的东西是幻觉最厉害的,AI从来不会说不知道,结果就是一本正经地胡说八道。
[24 楼] 雪国里的炭烧 [资深泡菜]
4-24 13:26
bird3000 发表于 2025-04-24 06:43
特色吧。不过本地装个国外的模型,限制会少很多。

但是,有意思是,同样的问题,有的AI可以回答,有的分析之后答案是换个话题。我就在线用三个AI来聊天,有次,其中一个一直坚持说,石破茂不是日本的首相,我忍不住训了一下它,结果它回复说,它们的信息库只更新到24年7月份。
[23 楼] bird3000 [陈年泡菜]
4-24 06:49
allseasons 发表于 2025-04-23 18:35
从来就不相信AI的准确性。AI的回答可以用作线索,但如果想用在论文里,必须逐条地去人工查找证据。
以后一定会有别有用心的人设计欺骗AI。

以后有苦吃了,本来就是一个技术,还不成熟。架不住有人迷信,有人滥用。简单举个例子,用AI来查错,本来是个好事,可很多人认为机器比人强,找出很多错误的错误,还逼着人改。
[22 楼] bird3000 [陈年泡菜]
4-24 06:43
雪国里的炭烧 发表于 2025-04-23 13:21
太有了。
特色吧。不过本地装个国外的模型,限制会少很多。
[21 楼] allseasons [资深泡菜]
4-23 18:35
老顽童 发表于 2025-04-23 17:38
ai也是不断发展进化的。已经发现的错误和缺陷也会逐步改善的。能力也会逐渐增加。对一般人来说,ai的能力已经远远超过了人类。可是你若是把真正需要大脑思考才能解决的问题给ai,能不能比过人类还不一定。这就像刷题的学生可以超过大多数普通学生,但是靠刷题还是...

从来就不相信AI的准确性。AI的回答可以用作线索,但如果想用在论文里,必须逐条地去人工查找证据。

以后一定会有别有用心的人设计欺骗AI。
allseasons 编辑于 2025-04-23 18:36
[20 楼] 老顽童 [陈年泡菜]
4-23 17:38
couldiy 发表于 2025-04-23 03:26
你这是国产那些套壳ai吧,背后都是开源的sd,看你这画面效果,估计是几年前的sd 1。5
用试试gpt mj flux,哪怕是即梦,都不太会是这效果。
ai也分等级的,就像狗头和牛头和手机镜头
你不能因为狗头成像不行,就是镜头不行
ai也是不断发展进化的。已经发现的错误和缺陷也会逐步改善的。能力也会逐渐增加。对一般人来说,ai的能力已经远远超过了人类。可是你若是把真正需要大脑思考才能解决的问题给ai,能不能比过人类还不一定。这就像刷题的学生可以超过大多数普通学生,但是靠刷题还是刷不出天才。
[19 楼] 雪国里的炭烧 [资深泡菜]
4-23 13:21
zbzsf 发表于 2025-04-22 21:17
有没有遇到过AI要换个话题聊聊的情况?

太有了。
[18 楼] couldiy [泡菜]
4-23 03:26
老顽童 发表于 2025-04-22 23:05
这是AI给我画的一幅田园画,不但公鸡长了三条猫腿,母鸡还长了一颗狗头!

你这是国产那些套壳ai吧,背后都是开源的sd,看你这画面效果,估计是几年前的sd 1。5

用试试gpt mj flux,哪怕是即梦,都不太会是这效果。

ai也分等级的,就像狗头和牛头和手机镜头

你不能因为狗头成像不行,就是镜头不行
[17 楼] couldiy [泡菜]
4-23 03:23
zbzsf 发表于 2025-04-22 21:17
有没有遇到过AI要换个话题聊聊的情况?

你是用豆包吧。被阉割成这也不敢说,那也不敢说。

换国外的大模型就没这问题了。
[16 楼] 老顽童 [陈年泡菜]
4-22 23:05
滏水东渐 发表于 2025-04-22 22:51
说的太对啦!其实AI绘图也是搜索已有的图形照片,东拼西凑出来。但就是人的手部脚部容易出错,不是六指就是四趾,因为这部分专门图片很少,它凭借仅有的搜索达不到真实的手脚真实图像。
这是AI给我画的一幅田园画,不但公鸡长了三条猫腿,母鸡还长了一颗狗头!
[15 楼] 滏水东渐 [泡菜]
4-22 22:51
老顽童 发表于 2025-04-20 12:29
现在的AI其实就是一个搜索系统,一碰到需要动脑筋的问题它就露馅了。你问的问题如果网上有,它的回答看起来头头是道。如果你问的问题网上没有,它就胡说八道。
我问了三个网上暂时找不到答案的问题,一个所问非所答。一个瞎绕,中学生几行就可完成的它饶了十几页还没...

说的太对啦!其实AI绘图也是搜索已有的图形照片,东拼西凑出来。但就是人的手部脚部容易出错,不是六指就是四趾,因为这部分专门图片很少,它凭借仅有的搜索达不到真实的手脚真实图像。
[14 楼] 开山鼻祖 [老坛泡菜]
4-22 22:03
zbzsf 发表于 2025-04-22 21:17
有没有遇到过AI要换个话题聊聊的情况?


很少,,当然要问些不能说的它可能会。。我遇到的是有时误操作或者前面没问完被打断再进来发现它在放歌听~,再一看确实发了要它播放歌曲的要求但实际是它听错了我也不知说了什么它就听错了。
开山鼻祖 编辑于 2025-04-22 22:03
[13 楼] zbzsf [泡菜]
4-22 21:17
有没有遇到过AI要换个话题聊聊的情况?
[12 楼] bird3000 [陈年泡菜]
4-20 13:06
pingxh 发表于 2025-04-20 10:43
越来越像人了。

哈哈,这个世界就是一个草台班子。一本正经地胡说八道太常见了。
[11 楼] 老顽童 [陈年泡菜]
4-20 12:29
现在的AI其实就是一个搜索系统,一碰到需要动脑筋的问题它就露馅了。你问的问题如果网上有,它的回答看起来头头是道。如果你问的问题网上没有,它就胡说八道。

我问了三个网上暂时找不到答案的问题,一个所问非所答。一个瞎绕,中学生几行就可完成的它饶了十几页还没有出来,我把它强行终止了。一个干脆给出个错误答案!
[10 楼] 开山鼻祖 [老坛泡菜]
4-20 12:23
说啥你都一套一套的,你不知道现在的这些操作系统?嗯,网线不通早不能干活啦,还别说上豆包跟你提问了。(这就是逻辑思维,那天互联网不通则要借助另外机器搞定倒是,当时主要靠手机,后来发现手机也是白问就找了g2}

很抱歉给你带来不好的体验呀。确实在网络不通时基本没法顺畅提问互动,AI 有时给出这类建议可能没充分考虑实际场景。后续我们会不断优化,让给出的建议更贴合实际、更实用,希望你能多担待,也欢迎继续提意见帮我们改进~
[9 楼] 开山鼻祖 [老坛泡菜]
4-20 12:08
再就是经常要提问者检查网线,发这种只能人干的建议,除了增加电费就没有啥意义了,它知道自己不能检查网线还不断纠结网线问题无异折腾用户。你问它它还一套套的,就是不认为提问者认为网线不是问题要它专注其他方面。

开山鼻祖 编辑于 2025-04-20 12:16
[8 楼] 开山鼻祖 [老坛泡菜]
4-20 11:07
跟人差远了,跟人说胡话像倒是真。

想了一下,因为它是生成式的,所以问题也就在这。

如果它生成前十个token已经答非所问,已经跑偏,已经不是正确解题(决)思路,那么后面生成再多token都只会错上加错,何况它下一个token还是预测产物,更增加了出错机率。

这就是逻辑思维的重要性,从一个正确的或为真的命题开始才能逐步推导后面结论,而第一个命题就错了,后面不可能推导正确,即使逻辑公式正确(其实任何逻辑推理都只有一种公式类似与如果A—->B,其他都是演变变:如非A—->B)。
发布自 iOS客户端
[7 楼] pingxh [泡菜]
4-20 10:43
越来越像人了。
[6 楼] 半幅机 [禁言中]
4-20 08:23
ai造假看怎么用了,现在用过去的影视剧训练ai的口音重新配时政的事情,重新用过去的小品,影视来说※※※※※战,看起来也不错。
哪怕画小人把起点中文的奥特曼同人小说搬上B站,也比天天黑大古是怪兽要好,毕竟ai的使用者也要走心的。
玩ai这事,就跟3d打印机怎么玩一样,除了买设备,还要看你玩的花不花了。