无论你周围的人,是否关注大模型,23年的ChatGPT的宫斗剧相信他应该还有些印象,毕竟都已经破圈了。
这件事情的起因,说白了就是“超级对齐派” 和 “激进派”之争。
“超级对齐派”希望,可以对预训练模型进行调整,让其符合人类的道德标准,但要付出更多的成本和时间,收获效果更差的模型。
“激进派”认为,这样很难满足投资人和用户的期望,公司根本无法生存。
“激进派”则希望,先满足大模型的商业价值,获取更多的投资和收入,然后再考虑“超级对齐”的事情。
“超级对齐派”认为,这样就相当于放出了洪水猛兽,会威胁到人类生存。
宫斗最终以“激进派”暂时获胜,“超级对齐派”基本离开OpenAI为结局。
当然,无论是业界大佬,还是各国政府,也都在积极呼吁,要对大模型进行立法管控,限制算力,防止“对人类造成不可挽回的影响”。
但立足于当前来看,以现在的AI能力来说,人为利用大模型创造虚假信息对社会造成负面影响,比“超级对齐派”的洪水猛兽恐怕来的更快。
而且更悲观的是,不管是否做了对齐,其实都可以通过调整,把预训练模型已经完成的对齐,重新解放,把猛兽再放出来。
毕竟,我们现在很难像科幻小说中,把“机器人三大定律”写入到机器人的固件中,并设置永不可更改。
如果没有强大的信息护盾,生成式AI很容易达成这些目的:
一、通过生成虚假信息(文字、图片、音频、视频),并可以达到以假乱真的效果,达到犯罪的目的
比如:通过视频通话,达到诈骗的目的
二、通过生成海量虚假信息,控制舆论
比如:通过伪造新闻,伪造评论,达到政治或军事目的
三、不断生成海量虚假信息,覆盖真实信息,改写历史
比如:将“窗前明月光”,在全网改为“窗前白月光”,经过几代人的不断灌输,慢慢就可以达到目的
这样的例子,我们可以举出很多。
是不是细思极恐。
聪明的你,有没有想到区块链的工作量证明:全人类在诗词上的纠正能力,也搞不过机器不是么。
当虚假信息达到99%的时候,
一个新诞生的人,会相信哪个信息呢?
人类从来无法从历史中学到教训。
只要有足够利益,就一定有人,用不正当的方法,利用新技术。
所以说,我们虽然还没到必须“超级对齐”的时代。但当前的AI技术,如果不尽快去管控使用方式,势必会给未来的我们,会造成巨大的损失。
我们需要强大的信息护盾!
亟需!
退一万步说,就算是不这样被大规模利用。
我们上一代人、我们这代人、我们下一代人,也要学会“区分是否为AI”的技巧。
但随着AI技术进步,这个技巧的习得,将越来越难。