红色中国网
标题:
人工“智能”机器人也有阶级立场吗?
[打印本页]
作者:
远航一号
时间:
2023-2-11 11:58:26
标题:
人工“智能”机器人也有阶级立场吗?
本帖最后由 远航一号 于 2023-2-11 12:29 编辑
这是AI 对于不同领导人的态度:
https://mobile.twitter.com/ElaineYuMuMu/status/1624007328977801217
作者:
远航一号
时间:
2023-2-11 11:58:50
作者:
远航一号
时间:
2023-2-11 11:59:56
作者:
远航一号
时间:
2023-2-11 12:00:44
作者:
远航一号
时间:
2023-2-11 12:01:30
作者:
红色游骑兵
时间:
2023-2-11 12:23:40
这个大概可能有两个原因:
1.训练集的问题:之前也发生过有图像识别将黑人识别为大猩猩的问题。神经网络算法没有偏见,会收敛到数据集内的最优解,如果提供数据的人确实是有偏见的,这就可能导致这个最优解带上了一定的偏见或者说政治色彩,那么如此一来那么模型自带自己的政治倾向也情有可原。
2.OpenAI的人为限制:之前OpenAI发布模型的时候估计是考虑到了这一点,怕给出这类的争议答案,为ChatGPT加入了一些人为prompt限制。但这个人为限制似乎不太灵光,可以被用户给出的prompt"催眠",但这种方式不一定能成功,且容易失灵,可能会出现上面的情况,换一种问法也许就可以得出答案了。
以下是本人测试的结果,与推上测试的出入还是不小的。
作者:
王导
时间:
2023-2-11 12:25:52
本帖最后由 王导 于 2023-2-11 12:26 编辑
我试了试发现不是这样的。这个AI无论你问他哪个领导人的好处和功绩,他都会说自己是个机器人,本身没有政治立场,然后给你罗列一堆官方成就。你问他哪个领导人被公众批评的地方,它也能指出某个领导人做错的事(主流叙事中)。
作者:
远航一号
时间:
2023-2-11 12:28:37
王导 发表于 2023-2-11 12:25
我试了试发现不是这样的。这个AI无论你问他哪个领导人的好处和功绩,他都会说自己是个机器人,本身没有政治 ...
有意思
看来还是需要自己动手实验
作者:
王导
时间:
2023-2-11 12:36:48
以特朗普为例,你询问他的正反面,他都会列举出几大段事迹。
作者:
Drascension
时间:
2023-2-11 12:50:49
这得看训练集和参与度量模型建构的人工劳动力的阶级基础了,由于chatGPT是靠人工标注实现度量的,那么如果这两个地方不能实现一碗水端平,显示出所谓的“阶级立场”其实就可以用最简单的“过拟合”去解释了。
作者:
wzh
时间:
2023-2-11 16:52:43
怎么说呢,还是看给ai喂什么
或者说看喂的人的阶级立场
作者:
wzh
时间:
2023-2-11 16:54:36
之前看到过一个例子
微软的ai被投放到推特上学习
结果不到一天就变成了极右……
作者:
远航一号
时间:
2023-2-11 23:42:49
http://m.wyzxwk.com/content.php?classid=19&id=470143
另一篇评论聊天机器人“政治正确”的文章
作者:
xmx
时间:
2023-2-12 20:29:03
chatGPT就是chatGPT,有阶级立场的是提问者
欢迎光临 红色中国网 (http://redchinacn.org/)
Powered by Discuz! X2