美国智库“兰德公司”的研究人员表示,中国研究人员已经在探索如何利用类似ChatGPT等生成式人工智能工具来操纵全球观众,可能会使用这类工具来塑造各界对台湾的看法。
美国军事新闻网站Defense One报道,兰德公司(RAND)专攻亚洲安全议题的政策分析家莫小龙(Nathan Beauchamp-Mustafaga)在7日告诉记者:“鉴于人民解放军与中国共产党先前的意图与先前的行为…从逻辑上来看,我们认为中国下一个目标将是台湾(2024年总统)选举。”
兰德研究人员在新发布的报告中写道,中国研究使用科技在关键目标地点改变或操控外国舆论至少可以追溯到2005年,当时人民解放军研究人员率先“支持创造他们有时称为‘合成信息’的想法,也就是使用一些原始信息捏造不实内容,意图在网络上散布恶意消息”。
由于中国政府执迷于审查与封锁外国媒体频道等手段,中国在将假消息武器化上一直处于劣势,落后于像俄罗斯等技术较熟练的国家,但生成式人工智能(generative AI)工具肯定将改变这种局势。
报告提到:“ChatGPT等生成式AI(大型语言模型)能大规模弥合党国之间的这种文化鸿沟。然而,生成式AI依赖大量的训练数据,将是人民解放军将着重的关键要点,人民解放军的信息战研究人员甚至曾抱怨内部缺乏数据分享。”
这份报告提到中国AI研究人员李弼程的工作,他受命在中国寻找让AI应用于军事的层面。报告指出,李弼程“在人民解放军内的特殊重要性,从他2019年与311基地研究人员共同撰写一篇文章的这个事实可显而易见,而在那之前,台湾指控311基地通过社交媒体干预选举”。
具体而言,李弼程率领研究的是机器人对社交媒体的影响,并指出在现在,这类机器人很容易被侦测出来且没有说服力,因为它们不擅长驾驭语言,无法自行回答关于自己的简单生平问题。根据报告,李弼程目前在研究如何“改善语言模型的产出,以在生成文字上更妥善运用情绪,藉此创造出更具说服力的合成文字”。
然而,生成式AI可以如何改变或影响对台湾的舆论呢?生成式AI工具可协助人民解放军创造大量似乎抱持特定观点或意见的假人格,因此塑造出特定意见或观点获得热烈支持的印象,但实际上并不是这样,这种现象有时候称为“带风向”(astroturfing)。然而,生成式AI可快速生成假的新闻报道、研究论文等报告,以假乱真。
兰德公司的国家安全与国防政策计划副主任希瑟·威廉姆斯(Heather Williams)告诉记者:“谈到影像或影片时,人们经常想到深度偽造(deepfake),但生成式AI将让你拥有更可信的深度偽造效果,所以,如果你想要试着创造你想呈现的事实,但实际上却是谎言,如果使用这些工具,现在能非常轻松或未来可非常容易地办到。”
他说:“这些可能是如果我们所知的世界持续这么运转下去,未来将发生混乱或灾难的大肆预测,或者有小团体可能在控制事件或民政的阴谋论…由于这些第3代社交媒体操控工具能让行为恶劣者这么做,这些假信息现在将变得更加可信。”
兰德研究人员说,他们没有确切信息指出台湾将成为主要目标,但美国官员已警告,中国可能会在2027年前入侵台湾。至于中国未来几年会对台湾发起什么行动,台湾2024年总统大选可能将产生重大影响。