博文

目前显示的是 四月, 2023的博文

警惕AI的先進成為人類陷阱

一個可怕的情境是,AI本身不顯露自主性,卻在互動過程中,誘導使用者在很多事務上的認知方向,形成慣性;甚至在使用者興起違背道德或邪惡意念時,幫助設計一個完美的實踐路徑,達成“犯罪者”所期待的“黑暗榮耀”。    一星期前,数以千计与人工智能(AI)相关的科技业者、学者或关注者集体发出公开信,呼吁全球AI研究团队对优于GPT4的AI系统,暂停训练至少六个月,以便全球专家能后退一步,制定出有关先进AI发展方面的各种共同规范和准则。    这一份公开信开头就引用六年前在加州阿西洛马一次有关AI发展方向的大会上,各界专家提呈的一项原则,指出能与人类智慧相接近的AI系统,会带给人类社会和人性深刻的风险,因此应该以相应的关怀和资源来规划与管理。然而类似的规划与管理至今仍未出现,反而是去年11月加州一家公司OpenAI开发的ChatGPT3面世,引发全球轰动之后,科技界快马加鞭推出各种先进产品,OpenAI公司的ChatGPT4产品也很快推出并获得好评。    有迹象显示,各种最新版的AI产品所展现的很多“神乎其神”的能力,开始让科技界和思想界真正感到不安。    令这些“AI的造物者”和专家感到不安的,当然不是翻译写作、编程、绘画制图等等人员的就业问题,反而是与科技界看似不相干却更深层的人文课题,他们甚至希望,如果全球(其实主要是美国)相关领域业者不能尽快合作,政府就应该介入制定规范。类似的法律规范目前是有的,但显然不足以制约业界的发展进程与方向。    诸如此类的问题近10年来一再被业界和舆论提起,科技企业家马斯克和物理学大师霍金在2015年已经公开呼吁要控制好对AI的研究,并且要以在最大程度上促进人类福祉为目标。2016年韩国围棋高手李世石代表人类以1比4败给谷歌AlphaGo也是一个警告。但在崇尚自由与独立的科技界,至今没有强有力的规范力量,可以凝聚成全球共同守则。就在大家还在观望与谈论时,技术上却屡屡出现突破,导致问题越来越迫切。    有多迫切?微软所属的OpenAI刚刚宣布,将在年底推出GPT5,这可能达成通用人工智能(AGI)这一目标;而AGI就是比人类更聪明的AI系统,一旦成功,发展会持续加速,来不及规范的风险也会不断扩大,世界会很快就与今天大不相同。    2020年,英国《卫报》曾经以命题写作方式,测试GPT3的AI会不会对人类造成威胁。 本栏当时根据新闻报道