?

奧運新項目:算法視頻監控

2024-05-06 17:26莫莊非/編譯
世界科學 2024年4期
關鍵詞:法國監控人工智能

莫莊非/編譯

安全奧運的衍生物即將審視你我他。

2024年夏天的巴黎奧運會上,負責安全的官員將在這座光之城的中心進行一項大規模的實驗。實驗根據一項臨時法律開展,覆蓋賽事、整個奧運村以及連接的道路和鐵路,允許自動監控系統偵察可能導致恐怖襲擊的“預定事件”。

對此,隱私保護活動人士提出反對。該臨時法律通過后不久,國際特赦組織秘書長艾格尼絲 · 卡拉馬德(Agnes Callamard)表示:“人工智能驅動的大規模監控是一個危險的政治項目,可能導致廣泛侵犯人權。公共場所的每項行動都將被納入監視基礎設施的天羅地網,從而損害基本的公民自由?!?/p>

然而廣大公眾似乎并不關心。事實上,當巴黎奧運會主辦區之一塞納-圣但尼省的官員介紹了一個初步的人工智能視頻監控系統,表示它可以檢測亂扔垃圾等反社會行為并處以罰款時,居民們舉手詢問為什么系統還沒出現在街道上。

“監控不是一個單一概念。并非每個人都反對?!瘪R修斯 · 維加斯 · 法拉利(Matheus Viegas Ferrari)說道。法拉利是巴西巴伊亞聯邦大學的國際關系博士生和法國巴黎第八大學的人類學博士生,曾參加塞納-圣但尼省的社區會議,并發表了關于2024年奧運會監控的研究論文。

如果有鄰居遛狗時放任寵物排泄而又不收撿狗便,對該鄰居不滿者就可與塞納-圣但尼省那些歡迎監控的居民站在同一戰線。但如果監控系統可能因算法偏好某種膚色或服裝風格而在罰款時厚此薄彼,很多人的意見大概就要反轉了。

事實上,歐盟國家制定《人工智能法案》旨在通過規范人工智能的政府和商業使用以保護公民的隱私和權利。與福利政策相關的人工智能法執行不力已經導致荷蘭內閣垮臺。

臨時監控法(其中的視頻處理條款將于2025年3月到期)似乎是為避免這種結果而制定的。它堅稱其管轄下的算法“不處理任何生物識別數據,也不實施任何面部識別技術,無法與其他個人數據處理進行任何協調、互連或自動連接”。

藝術家保羅 · 西里奧(Paolo Cirio)曾在未經批準的眾包面部識別活動中印制了警察臉部海報并將其張貼于巴黎各地。他認為這種表達是一種進步?!笆聦嵣?,即使在法國奧運會期間,政府也必須在法律中寫入他們不會使用生物識別技術,這對我來說已經是令人難以置信的事情,這是活動人士在法國和歐洲其他地方多年奮斗的結果?!?/p>

群體分析

官員們可以做的就是使用計算機進行實時人群分析,而非生物識別和面部識別分析。這項技術可追溯至很久以前,人們對多種群體行為的許多方面進行研究,此類研究甚至被應用于防止母雞自相殘殺。雖然群體可能非理性,但對群體分析是一門科學。

然而,群體中的個體可能無法真正獲得隱私保護。歐洲民間社會團體在一封公開信中稱,監視必然需要隔離并識別個人,從而剝奪無辜者的隱私權。

這是否屬實尚不清楚,所涉及技術的快速發展使其成為一個難以回答的問題。法國上阿爾薩斯大學的數據科學家喬納森 · 韋伯(Jonathan Weber)曾合著一份關于視頻監控的人群分析回顧文章,在他看來,“你不必識別這些人,程序員可以用類似人形的素材訓練神經網絡,直到它能在后續視頻中可靠識別出人類。然后,他們能訓練神經網絡處理更復雜的模式,例如人們摔倒、奔跑、打架,甚至爭論或攜帶刀具”。

法國視頻分析公司Videtics聯合創始人兼首席執行官艾倫 · 費爾巴赫(Alan Ferbach)表示:“我們發出的警報并非基于生物識別技術,而是基于體態,例如一個人是否躺在地上?!蔽挥诎屠璧腣idetics已提交了2024年奧運會安保合同部分內容的投標,也開始銷售可檢測建筑物墜落或戶外非法傾倒的軟件——這兩種方法都無需識別個人身份。

但這可能還不足以讓批評者滿意。歐洲非營利法律中心(位于荷蘭海牙的民間社會組織)的數字民用空間顧問卡羅琳娜 · 伊萬斯卡(Karolina Iwańska)表示:“即使只是對人們的行為進行分類,那也可能與識別人們的身份一樣具有侵略性和危險性,因為它可能導致錯誤、歧視以及對隱私和匿名的侵犯,還可能影響公平審判權和訴諸司法的機會?!睔W洲非營利法律中心已向法國憲法委員會提交了有關奧運會監控法的非當事人意見陳述。

韋伯特別重視訓練數據的偏差會如何導致AI群體分析出現問題。例如,當美國公民自由聯盟將美國國會代表的照片與警方拍攝的罪犯的面部照片進行比較時,該軟件錯誤地將深色皮膚者識別為匹配對象。韋伯表示,這種算法的潛在偏差將取決于軟件開發人員訓練它的方式:“你必須非常小心。一個最大的問題在于你或許沒有大量關于危險行為的視頻用以訓練算法?!?/p>

費爾巴赫說道:“我認為,我們必須對訓練路徑渠道進行認證,然后不同公司可以根據經過認證的訓練集開發自己的模型。如果需要驗證每個模型,那成本將是巨大的?!睔W盟監管機構尚未明確人工智能法案會如何解決這個問題。

即使軟件開發人員能利用足夠多關于不良行為的現實和模擬視頻,毫無偏見地訓練算法,他們也還需要弄清楚怎樣處理他們收集到的所有現實世界數據。西里奧指出:“收集的數據越多,這些數據最終落入公眾或壞人手中的可能性就越大?!弊鳛榛貞?,一些公司使用面部模糊工具以減少個人數據泄露的風險。其他研究人員建議從正上方錄制視頻,從而避免錄制人臉。

也許生物識別技術是必需的

另一些學者則在朝相反方向努力——開發識別個體的工具,或者至少使用步態分析將目標與視頻中的其他人區分開來。如果這種技術被應用,那么監控視頻就不會做面部模糊,也不會以俯視視角拍攝視頻,所謂隱私保護自然無從談起,它與法國奧運會的相關法律規定亦背道而馳。伊萬斯卡表示,法律禁止生物特征數據處理,同時又允許算法做事件偵測,這“似乎只能是美好的一廂情愿,我無法想象如果不處理生物識別數據,系統該如何按照預期工作”。

監控在潛行

困擾奧運會安全觀察者的另一個問題是該系統應保留多久。舊金山民間社會組織電子前沿基金會的高級政策分析師馬修 · 瓜里格利亞(Matthew Guariglia)表示:“對于希望加強監控的政府來說,利用一些煽動事件(例如襲擊或即將發生的重大事件)來證明其正當性是很常見的?;A設施可以保留,易于日后重啟并用于日常警務?!?/p>

法國奧運會法律規定了監控系統的有效期限,但伊萬斯卡稱這是任意而為,官方做出這一決定時“并未對它之于為期兩個月的奧運會和殘奧會的必要性或恰當性進行任何評估”。

另有研究安全技術和奧運會的歷史學家指出,各國經常將奧運會視為安全商品展覽會。而且,即使法國在奧運法到期后停止在公共場所使用其視頻處理算法,其他國家也可能從法國公司購買技術并在本國使用。法國和其他地方的監控行業將從巴黎奧運會的曝光中獲益匪淺,其他國家的人權可能受損。

奧運會也成為推翻惱人安全措施的試驗場。1980年,當美國官員們在普萊西德湖奧運村周圍安裝圍欄時,運動員們不斷往圍欄上靠,從而觸發了警報。一段時間后,安全官員發現警報根本不起作用。原來有人(甚至可能是官員自己)拔掉了警報系統的電源。

資料來源 IEEE Spectrum

猜你喜歡
法國監控人工智能
The Great Barrier Reef shows coral comeback
法國(三)
法國(一)
你被監控了嗎?
Zabbix在ATS系統集中監控中的應用
2019:人工智能
人工智能與就業
數讀人工智能
法國MONTAGUT教你如何穿成法國型男
下一幕,人工智能!
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合