算法也能欺騙我們做壞事 如何預防這種事呢?

 

  算法會如何整理你的數據?

7月20日消息,《衛報》網站撰文稱,算法能夠決定你能否申請到住房貸款,也能夠決定你要繳納多少保險費用,但有時候它們會出錯——還有的時候,它們被專門用來欺詐。那麽,要如何阻止算法騙人呢樓宇二按

以下是文章主要內容:

很多的算法會無意間作惡。然而,有的算法則被用於犯罪活動。算法是通常用計算機代碼編寫而成的形式化規則,能夠根據曆史規律或者以往的模式預測未來的事件。要訓練一個算法,你需要提供曆史數據和成功的定義。

過去幾十年間,可以看到一些金融活動已經被算法接管。交易算法利用曆史數據來預測未來的市場動向。這種算法的成功標準就是能否帶來可預測的市場動向,算法會對那種動向發生之前的曆史規律保持警惕。金融風險模型還使用曆史市場變化來預測全球範圍的大變動,不是針對獨立的股票來預測,而是針對一整個市場。針對抵押貸款證券的風險模型出了名的惡劣——人為有意造成的——信任那些模型可以說是2008年金融危機引發的巨大損失的罪魁禍首心跳錶

自2008年以來,我們更多地聽說大數據算法,而不是金融領域的算法。這種新一代算法的目標已經從抽象的市場轉移到個人身上。但它的基礎功能是一樣的:收集人們相關的曆史數據,記錄他們的在線行為、位置或者問卷調查的回答,然後利用龐大的數據集預測他們未來的消費活動、投票行為或者職業道德。

近年來,大數據模型的廣泛普及基本上沒有引起普通人的注意,但可以說,如今人們與大型官僚係統接觸的一些重要時刻都涉及計分係統式的算法。大學錄取,求職者篩選,員工績效評估,信用卡申請,保險購買,選舉投票,甚至警務,很多時候都是通過算法來完成。此外,被應用於這些係統決策的技術基本上都不透明(甚至對它們的創造者也不透明),目前基本上都能夠逃過監管,即便它們存在問題。這讓這當中有哪些算法真的是在為我們服務的問題顯得更加重要,更加緊迫。

四種層次的算法

說到邪惡的算法,我將它們分成四種層次。最高的層次是反映文化偏見的意外問題。例如,哈佛教授拉坦亞.斯威尼(Latanya Sweeney)發現,在穀歌上搜索被認為是黑人名字的名字,會產生與犯罪活動有關的廣告,但我們可以假定沒有穀歌工程師編寫了那些種族主義的代碼。事實上,之所以出現那些惡劣的廣告,是因為以前的用戶的穀歌搜索行為數據的訓練:他們更有可能在搜索聽上去像是黑人的名字以後點擊犯罪記錄廣告。另一個例子是:在穀歌上搜索“不職業的發型”的圖片,產生的結果幾乎全是黑人女性的圖片,這同樣是因為長期以來人們的發帖或者搜索結果點擊行為數據訓練出來的結果。

下一層次是因為疏忽而變得惡劣的算法。這裏算法包括不讓從事最低工資工作的人過上體麵生活的調度程序。這些算法把他們當做是機器的一個齒輪,安排他們在每一周的每一天裏值不同的班次,使得他們無法正常作息,因而平常無法照顧孩子,無法再打一份工,或者無法上夜校學習。它們以殘忍的方式來取得很高的效率和規模,大體上也合法。穀歌用於自動標記照片的係統也是如此。該係統一直以來都有一個問題:黑人會被標記為大猩猩。這表明該公司存在疏忽,在產品本身的質量評估上做得不夠:他們沒有在放出代碼之前確保它們在各種不同的測試用例中都沒有問題。

  算法被用於篩選簡曆未經人工審查的求職者,這可能會導致歧視

第三層次包含惡劣但不算違法的算法。例如,在澳大利亞,有Facebook高管向廣告主展示尋找和瞄準弱勢的青少年的方法。這很可怕,但似乎並不違法。的確,大體來看網絡廣告可被視作光譜:一方麵,向富有的人群呈現奢侈品廣告,吸引他們點擊購買;另一方麵,卻向窮人和處於絕望中的人呈現發薪日貸款商的廣告。對於不大可能會去貨比三家的人,算法會收取更高的汽車保險費用。Uber剛剛停用了一項它用來預測工資待遇會有多低的算法,該算法會進一步擴大男女收入差距。

最後,最底的層次包含蓄意作惡甚至公然違法的算法。有數百家私有公司在提供大範圍監控工具,包括英國的數十家。那些工具被標榜為定位恐怖分子或者犯罪分子的方式,但它們也能夠被用來瞄準和糾出民間的積極分子。由於那些公司收集了大量的數據,它們的預測性算法和評分係統可用來從噪聲中過濾出有用的信號來。這個行業的違法性正引起討論,但秘密行動的記者最近發現,代表伊朗和南蘇丹的中間人能夠相對輕鬆地買到這類係統。

大眾尾氣門的借鑒意義

言歸正傳,Uber開發了個名為“Greyball”的算法,它專門用來避免它的打車服務在城市裏非法經營的時候被發現。它使用數據來預測哪些乘客會違反Uber的服務條款,或者預測哪些乘客屬於秘密的政府執法人員。Greyball收集到的警告信號包括一天內多次使用Uber應用,以及使用與警察機構關聯的信用卡側睡枕頭

到目前為止,我們所發現的最臭名昭著的蓄意違法算法當屬大眾汽車公司在全球1100萬輛汽車上用來蒙蔽尾氣汙染測試的算法,該算法隱瞞了那些汽車實際的氮氧化物排放量達到法律允許數量的35倍的事實。盡管表麵上看大眾使用的是作弊設備,但該設備也算是算法。該算法被訓練得能夠鑒別和預測測試環境和道路環境,能夠根據環境鑒別結果以不同的方式運作。跟Greyball一樣,它意在欺騙。

  2015年,電商公司Poster Revolution被判利用算法與其它的海報銷售商串謀定價

汽車製造商的例子值得深思,因為算法行業——它是一個非常年輕的、高風險的新行業,但沒有部署安全保護措施——跟早期的汽車行業非常相似。業界普遍天真地信任自己的技術,但實際上,AI行業目前就像是在出售沒有保險杠的,車輪隨時都有可能脫落的汽車。我可以肯定,時不時都有人生產這種汽車,但隨著時間的推移,問題設計導致越來越多的人員傷亡,我們想出了更多的規定來保護乘客和行人。因此,對於非法軟件和算法,我們能夠從當前成熟的汽車製造業學習到什麽經驗教訓呢?

首先,大眾以外的其它汽車製造商也有部署類似的軟件來在特定情況下關閉排放控製係統。換言之,尾氣檢測造假並不是個例,而是一套標準的作業程序。此外,我們可以假定這不是串謀行為,而是汽車製造商受到極端激勵以及較低的被發現概率的驅使的一個簡單案例。那麽,我們完全有理由相信還有很多其它的算法被用來繞過被認為遵守成本太高的規章製度,尤其是在這些算法的開發者對被發現概率不以為意的時候。

接著,大眾汽車尾氣檢測造假始於2009年,也就是說它足足5年時間沒有被發現。這5年裏還發生了什麽事情呢?我們從這一思路著手,思考現在有哪些公司在蒙騙監管機構,規避隱私法律,或者恣意妄為地進行算法詐騙?

按照成本收益來分析,這可能就像是輕而易舉的商業模式:作弊,直至被監管人員發現為止,然後支付數額有限的、對我們所積累的利潤不會什麽損害的罰款。那畢竟也是金融危機發生以後的運作模式。為了股東價值,我們可能不得不這麽做。

從另一個角度說,我們都在期待著無人駕駛汽車未來幾年或者至多幾十年後到來。到那個時候,我們能否期望會有國際協議約定內嵌的無人駕駛汽車倫理的模樣呢?又或者說當無人駕駛汽車遇到意想不到的坑洞的時候,行人的生死將由汽車製造商來主宰?如果我們通過了相關的規定,它們在不同的國家會有所不同嗎?甚至按照製造商所在的國家實施不同的規定?

如果說觀察像汽車碰撞這麽易於觀察的事聽上去都令人困惑,那想象一下,在複雜的“深度學習”模式的模糊世界中觀察底層的狀況會有多困難。

當然,所需要的工具都已經有了。中國最近的展示表明臉部識別技術已經相當出色——足夠捕捉亂穿馬路的人和偷衛生紙的人。那意味著企業有許多的機會去對顧客或者潛在的雇員實施不正當的伎倆。就這一問題,企業也有這麽做的商業動機。就在上個月,由於在購物搜索結果中偏袒自家的購物服務,穀歌被歐盟重罰24億歐元。去年,亞馬遜也因為定價算法而遭到ProPublica的起訴。它被指優先展示自營的產品,盡管那些產品並沒有其市集平台以外的產品劃算。如果說互聯網是大數據企業爭奪你的注意力的地方,那麽可以想象未來會有更多的算法被用於這一目的。

大眾尾氣醜聞還有一個可以借鑒的地方。其尾氣檢測作假行為最終於2014年被西弗吉尼亞大學的一個教授和學生團隊發現。該團隊向獨立的非盈利組織國際清潔交通委員會申請撥款,最後僅獲得5萬美元。他們將那些錢用來駕駛汽車環遊全美,途中捕捉尾氣排放數據。這可以說是一項成本很低且直截了當的測試。

  2015年,大眾汽車被發現利用惡劣的算法進行尾氣檢測造假

如何監管算法?

什麽組織將會遏製即將出現的非法算法泛濫問題呢?算法領域有組織在扮演國際清潔交通委員會那樣的角色嗎?目前是否有組織有足夠的資格、興趣和能力去製止非法算法,以及證明這些算法有害呢?答案是目前還沒有。相反,至少在美國,不相幹的一些聯邦機構在負責算法範疇的執法事宜,但這些機構沒有一個特別熟悉錯綜複雜的大數據算法領域。在其它地區,歐盟委員會似乎在專注於調查穀歌的反壟斷活動和Facebook的假新聞問題,但這讓多個行業領域都沒有受到審查。

不過,更重要的問題是,算法調查得有多深入。現在的算法屬於秘密,屬於專有代碼,作為企業的“秘訣”而受到保護。它們太過神秘了,很多在線評分係統甚至對它們瞄準的人都不透明。那意味著那些人也不知道自己被授予了多少分數,也不能抱怨或者抗議那些分數。最重要的是,即便自己身上發生了某種不公平的事情,他們通常也不知情。

考慮到所有的這些問題,對算法實施監管實在難以想象,即便是在它們出毛病,不斷地傷害人們的時候。對於這一問題,首先,並不是任何一種傷害都可以準確無疑地測量出來。有人可能會說,由於假新聞四處泛濫,我們的民主受到了損害。但你要如何估量民主呢?

並不是說算法完全無法監管。畢竟,按照定義,非法的算法算是違反我們能夠指出的法律。說到底,也應當將這種違法行為歸責於某個人。但如何執行這種法律的問題仍舊存在。

馬裏蘭大學計算機科學教授本.施耐德曼(Ben Shneiderman)在阿蘭.圖靈研究所的討論會中提出了國家算法安全委員會的概念。該機構以調查陸地和空中交通事故的美國國家運輸安全委員會為模型,類似地負責調查違法算法造成的損害情況,尤其是判定誰應該為算法造成的傷害負責。

  算法根據曆史數據來給房屋估價,一美國房主控告Zoopla采用錯誤的數據致使她的房產估價減少10萬美元

這是一個好主意。我們應當在發現問題的時候對它們展開調查,有個正式的調查流程是好事。如果該委員會有充分的法律權力,那它可能就能夠深究很多的常識問題。但還不清楚它的法律權力會有多廣泛。

以汽車廠商出現故障來類比吧:在算法世界,並沒有類似於30車連環相撞的情況。大多數的算法傷害都悄無聲息地分別發生在一個個獨立的個體身上。相比肉眼可見的汽車碰撞事故,多起同時發生的、悄無聲息且無法檢測的汽車碰撞要更難調查。

我還是覺得調查造成損害的算法是有希望的。在盡是數據傳道者的世界裏成為數據懷疑者的其中一個奇跡是,人們過於驚歎於他們的技術,即便是在它無意間造成損害的時候,他們也公開描述它是多麽地神奇。我們已經見識過不在少數的算法損害案例,這意味著盡管這些算法很神秘,很不透明,但他們最終都會被重新發現,雖然它們已經造成了大量的麻煩。

這對於未來而言意味著什麽呢?首先,我們需要開始保持對各種動向的關注。我們所發現的每一個非法算法都應當被視作測試用例。違規者陷入麻煩了嗎?陷入多大的麻煩?那些規定執行了嗎?處罰是什麽?正如我們在2008年金融危機以後所學到的,如果違反規則帶來的成本低於收益,那麽規則就會被忽視。

軍備競賽

一旦開始進行執法並進行跟蹤記錄,我們就相當於是進入一場軍備競賽。可以預計的是,不久之後將會出現各種成熟的算法。它們能夠繞過法律,先進,悄無聲息,尋求規避規章製度。它們將會從其它被抓的算法身上汲取教訓,爭取下一次做得更加完善。換言之,抓住他們作弊將會變得越發困難。我們的策略也必須要越來越精進。

  預測性警務算法利用曆史數據預測下一個犯罪行為會在哪裏發生,民權組織稱這些係統放大了現有的警察偏見

我們預計也有可能會被大公司告知,它們“正在私下處理。”在打擊恐怖主義上,這已經在發生。它們那麽說的時候我們不該信任它們。我們需要創建標準的檢測框架——對於損害有標準的定義——並要求提交算法進行檢測。我們不能夠僅僅在“測試實驗室條件下”做這種檢測,不然的話算法領域也將會出現像大眾尾氣門那樣的事件。

算法檢測最大的障礙之一是,穀歌、Facebook或者亞馬遜不允許外部研究人員檢測多個角色模型(或者說個人網上檔案)。由於那些公司定製提供個性化的服務,了解那些服務如何運作的唯一途徑就是查看多個人的檔案,但這並不被允許。以大眾尾氣檢測來做類比:相當於是說研究團隊沒有汽車的控製權,因而不能檢測它的尾氣排放。我們需要要求提供更多的訪問權和持續的監測,尤其是我們抓到他們有不法行為的時候。對於這一問題,整個行業,比如保險算法和招聘算法,都應當要受到這些監測,而不隻是對獨立的罪犯提出這一要求。

我們是時候做好戰鬥的準備了。這場戰鬥最終將會變成一場技術軍備競賽,但一開始,也就是現在,它是一場政治戰鬥。我們需要要求從業者提供證據證明,其有可能損害到我們的算法的運作公平,合法,始終如一。發現問題的時候,我們需要有效執行我們的法律,向違法的公司處以巨額罰款,讓作弊行為變得毫無成本效益可言,從而防患於未然。現在是時候開始要求機器為我們效勞了,而不是我們去為機器效勞了。

原文地址:http://field.10jqka.com.cn/20170720/c599270097.shtml

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *


*