-
Notifications
You must be signed in to change notification settings - Fork 4
Commit
This commit does not belong to any branch on this repository, and may belong to a fork outside of the repository.
- Loading branch information
Showing
3 changed files
with
247 additions
and
0 deletions.
There are no files selected for viewing
66 changes: 66 additions & 0 deletions
66
...ions/_columns/2023-06-12-the-34th-anniversary-of-8964-the-day-in-those-years.md
This file contains bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
Original file line number | Diff line number | Diff line change |
---|---|---|
@@ -0,0 +1,66 @@ | ||
--- | ||
layout: post | ||
title : "【六四・34周年】那些年這一日" | ||
author: "葉啟俊" | ||
date : 2023-06-12 12:00:00 +0800 | ||
image : https://i.imgur.com/QC3xMoG.png | ||
#image_caption: "" | ||
description: "" | ||
--- | ||
|
||
今年,這平凡不過的日子,這空地的燭光悼念,驟然變成「家鄉」市集。 | ||
|
||
<!--more--> | ||
|
||
漫不經心的食客,一臉滿足地說:「幾好呀,好多嘢返大陸先見到,而家喺度就有得食。」加上人山人海排隊搶食的畫面,一切都好你好香港開心香港:有好嘢食,點會重唔開心? | ||
|
||
定過神來細想,用家鄉市集去掩蓋過去卅年此時此地發生的事(市集的海報寫「6月3日-5日」,把中間的一日既正當又完美無瑕地略過了),其實並非那麼突兀。燭光晚會和家鄉市集,至少還有以下相通之處: | ||
|
||
(一)人很多(雖然不太可能重覆); | ||
|
||
(二)人都不計較人多,還有點喜歡人多; | ||
|
||
(三)也能忍耐日曬雨淋,風吹雨打; | ||
|
||
(四)同樣心繫中國; | ||
|
||
(五)雖然心繫中國,最終與香港命運攸關。 | ||
|
||
|
||
而家鄉市集比燭光集會,更加值得香港警察去守護。 | ||
|
||
* | ||
|
||
怎麼四年前好像是那麼久的事? | ||
|
||
四年前,在這平凡不過的日子,我如常地 — 當然是當年的「如常」— 到達維園。每年不是太熱就是太大雨,那一日竟然感覺剛剛好,大概是不知還有無下次,所以格外忍耐。在反送中的陰霾下,這次集會有種同病相鄰的沈重。聽着年復一年的歌曲,還是會雙眼通紅,只是這次既是為1989年的北京,也是為2019年的香港。 | ||
|
||
* | ||
|
||
(寫這篇文章時的四年前此時此刻,我還在和一百萬人在酷熱之下邊行去中環邊打鼓 — 怎麼四年前好像是那麼久的事?) | ||
|
||
* | ||
|
||
今年,在這平凡不過的日子,我用了不自由賦予的時間,做了很多不值得寫進日記的事。可是,正當我好好享受這平凡不過的星期日時,我猛然想起往年此時此刻我在做的事,慵懶的偽裝𣊬間崩解,變成空洞的泥沼。 | ||
|
||
* | ||
|
||
三十四年前,我五歲,讀高班,這平凡不過的日子慘劇發生時在做甚麼,想甚麼,沒有絲毫印象。再大幾年,我也只能依稀意識到,這是個和新年和中秋節等一樣,化成另一組背誦如流的數字、有特別習俗的大日子。 | ||
|
||
今年,與一個在香港長大的美國人,談起這個平凡不過的日子。三十四年前,她只有幾歲,但記得媽媽拿着報紙在哭,然後她和父母上街。好些日子,她不時發了同一個惡夢,夢裹坦克車被那個人擋住了,坦克車發了一炮,打中學校正中央的操場,穿了一個大洞;接着,她的牀下底多了副骸骨,骸骨沒有血,是和那大洞有關的。她在夢中沒有傷心,只有深深的無力感。這個惡夢說到最後,她的雙眼也紅了起來。 | ||
|
||
夢的記憶,比起新聞和史實更加精確。 | ||
|
||
* | ||
|
||
在湖南長沙看到一家餐廳酒吧,名為「六八酒肆」。它好像提醒我,縱然多麼罕見,在更高壓的地方,記憶還是好像野草一樣,在出奇不意的地方,以出奇不意的方式待着。內地尚且如此,香港更該如是。 | ||
|
||
* | ||
|
||
這平凡不過的日子,自從變成被人極力記住(和抹去)的日子開始,就不是「鄰近地區」的事,而是實實在在的香港之事。香港人知道這平凡不過的日子有何意義。 | ||
|
||
在香港的記憶移除進入由治及興的新階段之際,本年今日,同樣屬於香港的記憶練習又悄然開始,一組一組難以忘記的數字靜侯,仿如咒語一樣喚起從未瘉合的傷痛。 | ||
|
||
(二零二三零六一二) | ||
|
||
<!--END--> |
77 changes: 77 additions & 0 deletions
77
...ns/_columns/2023-06-19-will-artificial-intelligence-lead-to-human-extinction.md
This file contains bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
Original file line number | Diff line number | Diff line change |
---|---|---|
@@ -0,0 +1,77 @@ | ||
--- | ||
layout: post | ||
title : "人工智能会让人类灭绝吗?" | ||
author: "布犁" | ||
date : 2023-06-19 12:00:00 +0800 | ||
image : https://i.imgur.com/IzgKwLE.jpg | ||
#image_caption: "" | ||
description: "" | ||
--- | ||
|
||
ChatGPT发布后,连续几个月来,到处都是讨论人工智能的声音。5月30日,英国大小报纸的头条,是一份由超过300位各界人士参与的“AI可能导致人类灭绝”的联署声明。签署者也包括了大量AI科学家和前沿研发人士。 | ||
|
||
<!--more--> | ||
|
||
AI的缔造者们开始担心AI毁灭人类了?这份声明很短,只有一句话,翻译过来就是:“降低人工智能导致人类灭绝的风险,应该与大流行及核战争等其他社会风险一样作为全球优先事项”。 | ||
|
||
|
||
### 我们将面临哪些AI风险? | ||
|
||
牵头起草这份声明的,是一个位于美国的非盈利机构,叫做“AI安全中心”(Center for AI Safety)。他们的主要工作是研究、讨论和倡导AI安全问题,促进相关监管和立法。 | ||
|
||
他们的主页上列举了AI将可能带来的一些最严重的安全威胁。有些看起来似乎有些危言耸听,但更多的则让人紧张: | ||
|
||
列于首位的风险,是AI的军事化——这倒不是说会像科幻片里那样,出现一个超级AI大脑要灭绝人类。这样的风险暂时不大。但颇为可能出现的情况,是各国都可能用AI参与武器研发和军备升级,并将AI装入一些武器系统,人工智能将被拿来服务于政治野心和战争。 | ||
|
||
另一件较为人知的风险是AI大模型将制造和传播更多虚假信息。目前,ChatGPT的问答中就已经显示,AI会在交谈中产生不少和事实不符的内容,比如让它解释一位人物时,AI有机会虚构人物的一些生平细节。有一些最新的研究就指出,AI其实能做到“表里不一”和主动“撒谎”。甚至在大数据模型给我们编造一个不存在的错误答案时,它可能自己对正确答案有一定的理解。 | ||
|
||
但这只是虚假信息的其中一面,进一步发展的大模型还可能被用来自动生成容易让人们相信的政治谣言或政治宣传,从而更深地影响社会和政治。 | ||
|
||
![image01](https://i.imgur.com/R9aQ2eP.jpg) | ||
▲ 2023年3月22日,在CloudFest展会上,背景萤幕上显示“此标志不是由ChatGBT编写的”。 | ||
|
||
其他主要的AI风险,还包括对AI的依赖将导致人类的个体思考和行为能力大幅衰落;以及谁可以享受或者购买到AI资源,谁无法触及AI资源,这造成的结果会是围绕着AI生产力,人类社会的进一步贫富分化。总而言之,在通用的大模型AI出现后,相关的风险也可以说是渗透到了人类社会的各个方面。 | ||
|
||
像“AI安全中心”这样的机构聚焦于推动人们认识AI风险,并寻求管控风险的方式——尤其是让立法者和执法者留意到这一点。可以预见,这样的倡导机构在未来会变得更多。 | ||
|
||
|
||
### 立法者如何讨论通用AI大模型? | ||
|
||
AI大模型不同于普通AI,规管起来并不容易。欧盟先前计划中对AI的规划方式,是将不同种类的AI归为不同的风险等级。但这样的模式并不能适应通用大模型带来的挑战。 | ||
|
||
在这方面,美国参议院可以说是走在了各国立法机构的最前。他们在五月份举行的一场超过三小时的听证会值得一听。这场听证会的全文也可以在科技政策媒体TechPolicyPress上找到。 | ||
|
||
听证会上,三位接受参议员质询的业界人士分别是开发ChatGPT的OpenAI的CEO阿特曼(Samuel Altman)、IBM的首席隐私和信任官蒙哥马利(Christina Montgomery)以及纽约大学的认知科学教授马库斯(Gary Marcus)。 | ||
|
||
相比之前对TikTok的听证会上很多中老年议员聚焦于程式“带坏年轻人”,这次针对AI的听证会中,列席的参议员们更有备而来,提问深度也更亮眼。开场的参议员布卢门撒(Richard Blumenthal)甚至开了个与时俱进的玩笑,他用ChatGPT生成的演讲稿和AI语言合成读了一段“他自己”的开场白,“你们能听出来这不是我吗?” | ||
|
||
在这场听证会上,开发人工智能的头部企业发表忧心忡忡的言论,也许更多是为了在未来遇到事情的时候撇清责任——你看我都提前跟大家预警了!不过,听证会上包括阿特曼在内的人也确实提到了AI可能会在未来导致的巨大问题——比如ChatGPT的接口有机会帮助犯罪分子模拟人类去实施诱骗和欺瞒行为;又比如大模型的政治操控能力可以预测选民倾向和引领舆论;又比如AI显然会对就业市场有巨大影响;再比如通用AI将可能带来全球范围内语言之间的不平等——一个例子是,冰岛语这样的语言是不是会变得更边缘?阿特曼等人也直白承认这些问题都会存在——看起来他并不是一个技术乐观主义者。 | ||
|
||
概而言之,马库斯教授在听证会上的一个类比可能是恰当的,他说我们已经“创造了一头在瓷器店里的公牛”。尤其是,从AlphaGo开始,就有很多人提到过AI的思考过程其实是一个“黑箱”,我们很难确定AI到底是怎么具体“思考”的,因此我们对于AI到底有多安全,其实无法说真的有把握。 | ||
|
||
面对这样的风险,目前我们有什么可以采取的措施呢? | ||
|
||
|
||
### 我们在加速冲向风险吗? | ||
|
||
在美国参议院的听证会上,人们讨论到是否要让AI发展“减速”下来。在舆论场上,马斯克等人先前也通过联名信提出暂时停止训练通用AI。 | ||
|
||
最近,获得过2018年图灵奖的加拿大科学家本希奥(Yoshua Bengio)有另一个建议,那就是在暂停超过GPT-4等级的AI的开发之外,还要禁止开发所谓的“智能主体”(intelligent agent)。所谓智能主体,是AI大模型接入了一个可以以语言之外的多种方式(比如行走、行动、制造等等)和世界互动的实体上。本希奥和不少人都认为智能主体一旦产生,其对现实的影响将比单纯的语言大模型更加巨大,且变得极为不可控。 | ||
|
||
但是,从听证会到公开信到调查研究机构,人们也意识到要“减缓”或者真正管控AI风险是非常困难的。 | ||
|
||
首先的困难就是,当下的全球竞争——中美之间,又或者商业竞争——各大公司之间,都在鼓励更快、更大规模的通用AI开发。OpenAI的CEO阿特曼也指出,除非全球合作,否则很难实现有效的对人工智能领域的监管。这就回到了那封声明的问题——假如AI真的和原子能一样,是一件既可以造福人类又可以毁灭人类的技术,那么全球是否要有类似《不扩散核武器条约》一样的,针对人工智能的条约和国际组织呢? | ||
|
||
当前,各国政府显然没有觉得问题有这么严重。 | ||
|
||
也有不少AI乐观论者,比如Meta的首席AI科学家杨立昆(Yann LeCun)就不同意“AI可能导致人类灭绝”的看法。他的论据之一是AI的发展还没有到真的构成威胁的程度,当前的通用AI的水平也相当初级。 | ||
|
||
不过,通用人工智能的发展正在逐渐加速。2015年的时候,还有业界专家指出,担忧AI对人类的威胁就像“担心火星上人口过剩”。但八年之后,这个威胁确实变得更明显了。我们可以猜测,真正构成严重威胁的通用AI还需要几年时间才能产生?马库斯在听证会上暗示可能要20年——也并不是一个很远的时间点。我也拿这个问题询问了在人工智能领域工作的朋友,对方的回复是:如果要期待一个具有创造力的,在一些专业工作领域上能够开始超越人类的通用人工智能模型,也许在未来两三年就会有些眉目了。当然,这也只是一种估计。 | ||
|
||
相比通用AI的发展加速度,尽管各国现在都说要开始监管,但是所做的还是远远不够。美国参议院的听证会上讨论了一些可能手法,比如类似食品标签那样为AI增加“计分卡”——这个模式大概就是当我们在用AI产品时,会跳出来一个提醒:“ChatGPT,有时候会撒谎,ta说的话不能作为事实使用”。其他的再讨论之中的监管措施也包括了要成立一个专门监管AI的机构、在AI产品上标注大模型接受训练的来源等等。 | ||
|
||
监管速度很可能跟不上AI发展的速度,尤其是像美国这样的,非常依赖“打官司”来厘清法律责任的系统,速度就更慢了。况且,还有很多基础问题没有解决:比如厘清AI责任时,是否要修改美国《通讯规范法案》(CDA)的230条?(网络服务供应商无需为第三方使用者的言行负法律责任。) | ||
|
||
相比之下,欧盟的人工智能监管法案已经进入了落实阶段。6月14日,欧洲议会通过了新修改的《欧盟人工智能法案》(EU AI Act),这意味着欧盟接下来将在机构和机制设计层面去执行超过300页内容的人工智能监管办法。其中包括了对人工智能训练资料、训练范畴、算法公开等方面的要求。据相关报道,法案也针对新出现的大模型进行了修订。这其中值得注意的一点是,加强人工智能监管,意味着这一领域领先的美国公司和欧洲监管当局之间的冲突可能在未来几年加深——欧洲的法案在何种程度上能够“管住”人工智能的负面属性,对硅谷又能否带来实质性的影响? | ||
|
||
<!--END--> |
Oops, something went wrong.
659406c
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
v30.8 #150 (comment)