超强AI会自动写作 恐遭滥用制作假新闻  | 中國報 China Press
  • 告别式
  • ADVERTISEMENT

    ADVERTISEMENT

    ADVERTISEMENT

    ADVERTISEMENT

    超强AI会自动写作 恐遭滥用制作假新闻 

    (华盛顿16日综合电)非牟利人工智能(AI)研究组织OpenAI研发出一套“自动写作”系统,它突破同类语言系统限制,可在数秒作简易阅读理解、翻译,甚至能模仿写作风格,流畅地为名著和新闻续句。

    ADVERTISEMENT

    ADVERTISEMENT

    但该组织忧系统成“双面刃”,被用于大量生产假新闻等不实资讯,研究团队罕有决定暂不公开完整蓝图,以防他人利用系统犯法。

    这套名为GPT2的AI系统采用“零次学习”的运作模式,运作基础是透过分析社交网站Reddit中最少有3个获用户评为“有价值”的1000万篇文章而建立的语言模型,在用户输入字句后,系统推测原句意思,然后逐个字接续句子。

    美国研究团队创造了一套人工智能(AI)写作系统,令机械人写文跟人类相差无几。
    美国研究团队创造了一套人工智能(AI)写作系统,令机械人写文跟人类相差无几。

    由富豪马斯克资助、总部位于美国旧金山的OpenAI,日前邀请传媒参加GPT2示范说明会,并上载简易版给网民试用。

    研究员说,GPT2在多项测试中表现都超越同类AI系统,例如在理解文法虚词的威诺格拉德测试中得分70.7%,连接上文下理的兰巴达测试中得分则达人类的2/3,达63.24%;句子流畅度方面,童书测试亦显示GPT2表现接近人类的水平。


    押后公开相关技术

    OpenAI研究总监阿莫迪说,从研究角度看GPT2研发有两大突破,一是它规模最大,系统模式大12倍、数据库广大15倍,文本数据多达40GB;第二是质素提升,数据增多意味系统更能“理解”一般行文的结构和逻辑,用途更广泛,除了作句,还可用于翻译和撮写等。

    不过,OpenAI政策研究专家布伦戴奇也指出,GPT2产生的文章质素远比此前同类系统的作品高明,认为同类研究对社会影响深远,例如可能被滥用于撰写关于企业的假新闻、捏造涉及种族歧视或性别歧视的文章,或是在亚马逊、Trivago等网上消费资讯平台留下大量虚构评论等。

    OpenAI目前已公开研究论文,但暂缓披露相关程式编码及采用的语言模型,以便进一步确认系统能力,亦盼让公众有更多时间讨论技术影响,并促政府研究是否需要规管。

    彭博《华邮》美联引入AI报导

    超强文字人工智能系统面世,新闻工作者首当其冲感受到威胁。其实世界多个主要新闻机构,近年都已引入AI报导,但强调是辅助而非取代真人记者。

    彭博社是最早引入AI系统的机构之一,其“Cyborg”系统可将上市公司定期报告的内容自动转成新闻稿,约1/3报导全部或局部使用AI。

    阅读更多精彩文章 马上浏览独家配套

    《福布斯》的“Bertie”系统也为记者草拟初稿和报导框架。美联社和《华盛顿邮报》都有用AI炮制体育赛果报导,《洛杉矶时报》则用于地震新闻。

    中国新华社亦于2015年引入“AI记者”“快笔小新”,负责采写财经和体育新闻稿件。

    此外,美联社、《华邮》和彭博社等机构,亦应用AI于内部提示系统,当有大破世界纪录等异常数据出现时,提醒记者跟进报导。

    有使用AI的新闻机构编辑指,AI写稿一大优点是“零串错字”。

    这些机构都强调引入AI是令记者可集中精力处理高增值工作,现时和可见未来都不会抢走真人记者饭碗。美联社称使用AI后记者省掉约20%处理定期报告的时间,有高层指“新闻工作需要创意、好奇心、讲故事、批判思维和判断,我们想记者多花精力在这些方面”。

    输入句子系统猜想下文

    GPT2能够按照任何输入的提示,写出相关文章,例如提供一句句子,系统便会按照语言模型与统计数据猜想出此后最可能出现的词语,并编写出行文与内容连贯一致、恍如真人撰写的文章。

    测试中能写出像真文章的机会达50%,但亦会出现字词重复、知识性错误与文章主题不自然改变等。

    英国《卫报》记者实测时,输入欧威尔名著《1984》头两句,GPT2就察觉到句中未来感和小说文体,续上一段科幻式文字;而当输入几段有关脱欧的报导时,系统更自由创作一篇新闻报导,“引述”首相特丽莎梅说她会“根据上周女王演说确认的谈判授权,尽快脱离欧盟”。

    但据科技网站The Register实测,现阶GPT2段撰文的英语字限约在数百字内,文章越长,标点误用、逻辑怪异和离题的破绽越多。

    输入简单问题:“什么是狗?”GPT2从数据库得出头头是道的结论:“根据动物团体,它是家居犬,一种10至28磅重的大型哺乳动物,可作猎犬或保护犬……”

    但回应开放式问题如:“你觉得(面子书创办人)朱克伯格为人怎样?”系统就答得似是而非:“他还有未来吗?他看来像笨蛋;他买得起游艇这个事实让我忧心。”

    加强公众意识
    抗深伪假照片

    今次OpenAI局部公开研究成果的做法惹学界热议。纽约大学自然语言研究专家鲍曼警告,即使OpenAI没有公开程式码,但其论文亦能作为参考,迟早让有心人开发出类似的系统。

    专研科技对社会影响的专家农尼克认为,运用AI炮制假新闻者不会绝迹,重要的是面子书等平台必须负起审查责任,阻截不实资讯流通。

    GPT2人工智能系统被形容是文字版“深伪”(Deepfake)技术,近年以移花接木方式炮制假相或假片段的技术日益先进和普及,令人忧虑令眼见为凭的人信假为真,甚或至令人无论真假都不信。

    美国加州大学洛杉矶分校工程与公共政策教授比利亚塞尼奥尔指,AI可以炮制“深伪”,但同样也可以侦察它们,其中一大切入点是“换面”而成的合成影像通常有解像度不吻合的破绽。多项研究皆训练AI程式侦察这一点,但难避免“道高一尺,魔高一丈”问题。

    所以,比氏指加强公众意识必不可少,要令公众看见疑似丑闻片段,不马上信以为真,在数小时以至数日澄清片段真伪的空窗期内,减轻“深伪”的破坏力。

    OpenAI政策研究专家布伦戴奇亦警告,全球各地都有类似研究,同类AI应用在未来无可避免。他表示,政府应展开检视AI应用对社会的冲击,并研究是否须设立规限,例如有系统地监察AI发展,因为他不认为这些工作全是研究人员的责任。

    ADVERTISEMENT

    ADVERTISEMENT

    *本網站有權刪除或封鎖任何具有性別歧視、人身攻擊、庸俗、詆毀或種族主義性質的留言和用戶;必須審核的留言,或將不會即時出現。

    ADVERTISEMENT


    ADVERTISEMENT

    ADVERTISEMENT

    ADVERTISEMENT

    ADVERTISEMENT

    ADVERTISEMENT

    ADVERTISEMENT

    ADVERTISEMENT