和風網標誌

調查發現,一些企業高管將人工智能的不道德使用納入主流 

日期:

在最近的一項調查中,許多企業高管承認有時不道德地使用人工智能,因此人工智能意識的新時代即將到來。 (信用:蓋蒂圖片社) 

人工智能趨勢編輯John P.Desmond 

在最近的一項調查中,高級業務主管承認他們有時不道德地使用人工智能。 

畢馬威最近對擁有 250 多名員工的公司的 1,000 名董事或高級管理人員進行了一項有關數據隱私的調查,受訪者承認公開不道德。  

根據最近的一份報告,大約 29% 的受訪者承認他們自己的公司收集了“有時不道德”的個人信息,33% 的受訪者表示消費者應該關注他們的公司如何使用個人數據。 “紐約客”. 

Orson Lucas,畢馬威美國隱私服務團隊負責人

結果令調查者感到驚訝。 畢馬威美國隱私服務團隊的負責人奧森·盧卡斯 (Orson Lucas) 表示:“對於某些公司而言,他們所說的在數據隱私方面所做的事情與他們實際所做的事情之間可能存在偏差。”  

一種日益增長的做法是“收集關於一個人的一切”,然後再弄清楚如何使用它。 這種方法被視為一個機會,可以更好地了解客戶希望從業務中獲得什麼,然後可以就客戶願意提供哪些信息以及提供多長時間進行透明協商。   

這些公司中的大多數還沒有達到透明的談判階段。 約 70% 的受訪高管表示,他們的公司在過去一年中增加了收集的個人信息量。 62% 的受訪者表示,他們的公司應該採取更多措施來加強數據保護措施。   

畢馬威還就數據隱私問題對普通人群中的 2,000 名成年人進行了調查,發現 40% 的人不相信公司在處理個人信息時會合乎道德。 在盧卡斯看來,消費者會想要懲罰在使用個人數據方面表現出不公平做法的企業。   

人工智能會議考慮對提交的論文進行更廣泛的倫理審查  

與此同時,在人工智能會議上,有時展示的人工智能技術對其潛在的不道德使用幾乎不敏感,有時,這種人工智能技術會進入商業產品。 例如,2019 年的 IEEE 計算機視覺和模式識別會議接受了麻省理工學院計算機科學和人工智能實驗室研究人員的一篇論文,該論文是關於從說話的人的錄音中學習人臉的。  

這個名為 Speech2Face 的項目的目標是研究可以從一個人的說話方式中推斷出多少關於一個人的外表的信息。 研究人員提出了一種專門設計用於執行從音頻進行面部重建任務的神經網絡架構。   

研究人工智能倫理的谷歌跨性別女性和社會學家亞歷克斯漢娜通過推特要求停止這項研究,稱其為“恐跨症”。 漢娜反對這項研究試圖將身份與生物學聯繫起來的方式。 爭論隨之而來。 一些人質疑提交給以學術為導向的會議的論文是否需要進一步的倫理審查。  

邁克爾·卡恩斯 (Michael Kearns) 是賓夕法尼亞大學的計算機科學家,也是該書的合著者, 道德算法,“ 表示 “紐約客” 我們正處於人工智能和機器學習的“曼哈頓計劃時刻”。 “該領域的學術研究已在社會上大規模部署,”他說。 “隨之而來的是更高的責任。”  

Katherine Heller,杜克大學計算機科學家

一篇關於 Speech2Face 的論文在加拿大溫哥華舉行的 2019 年神經信息處理系統(Neurips)會議上被接受。 杜克大學計算機科學家、Neurips 多元化和包容性聯合主席凱瑟琳·海勒 (Katherine Heller) 告訴 “紐約客” 當年會議接受了大約 1,400 篇論文,她不記得在道德問題上遇到過類似的阻力。 “這是一個新領域,”她說。 

對於 2020 年 2020 月遠程舉行的 Neurips XNUMX,如果發現研究對社會構成威脅,論文將面臨拒絕。 倫敦谷歌 DeepMind 的研究科學家 Iason Gabriel 是會議倫理審查過程的領導者之一,他表示需要做出改變,以幫助人工智能“在一個領域取得進展”。 

倫理學是計算機科學的新領域。 生物學家、心理學家和人類學家習慣於通過評論來質疑他們研究的倫理,而計算機科學家並沒有這樣長大。 重點更多地圍繞方法,例如剽竊和利益衝突。    

也就是說,在過去幾年中出現了許多對人工智能的道德使用感興趣的團體。 例如,計算機協會的計算機人機交互特別興趣小組於 2016 年成立了一個工作組,該工作組現在是一個倫理研究委員會,可應會議項目主席的要求審查論文。 2019 年,該小組收到了 10 項詢問,主要是關於研究方法。   

“我們確實越來越多地看到,尤其是在人工智能領域,越來越多的問題是,這種研究是否應該成為一件事?” 馬里蘭大學信息科學家兼委員會主席 Katie Shilton 表示, 紐約客。 

Shilton 確定了四類潛在的不道德影響。 首先,可以針對人群“武器化”的人工智能,例如面部識別、位置跟踪和監視。 其次,諸如 Speech2Face 之類的技術可能會“將人們歸入不適合的類別”,例如性別或性取向。 三是自動化武器研究。 第四,用於創建替代現實集的工具,例如假新聞、聲音或圖像。  

這個綠色的領域是對未知的冒險。 計算機科學家通常具有良好的技術知識,“但是計算機科學領域的很多人都沒有接受過研究倫理方面的培訓,”Shilton 說,並指出說不應該存在一系列研究並不容易。 

為天主教牧師武器化的位置數據 

位置跟踪技術的武器化在這位天主教神父最近的經歷中得到了充分證明,他曾是 Grindr 約會應用程序用戶,隨後辭職。 天主教神父發誓要獨身,這與任何類型的約會應用程序社區都存在衝突。   

這一事件引發了一系列道德問題。 一個名為 Pillar 的天主教新聞媒體打破了這個故事,該媒體以某種方式從基於位置的連接應用程序 Grindr 獲得了“應用程序數據信號”,在 重新編碼 來自 Vox。 除了說它來自“數據供應商”之外,尚不清楚該出版物是如何獲得位置數據的。  

ExpressVPN 數字安全實驗室首席研究員 Sean O'Brien 表示:“位置跟踪造成的危害是真實存在的,並且可能對未來產生持久影響。” 重新編碼。 “沒有對智能手機監控進行有意義的監督,我們在本案中看到的隱私濫用是由一個有利可圖且蓬勃發展的行業促成的。”  

該業務中的一個數據供應商是 X-Mode,它從數百個應用程序中的數百萬用戶收集數據。 去年,該公司因與美國政府的國家安全工作而被蘋果和谷歌平台開除。 華爾街日報。 然而,該公司正被亞特蘭大的 Digital Envoy, Inc. 收購,並將更名為 Outlogic。 它的首席執行官 Joshua Anton 將加入 Digital Envoy,擔任首席戰略官。 收購價格沒有透露。 

Digital Envoy 首席執行官 Jerrod Stoller 表示,收購 X-Mode“使我們能夠進一步增強與網絡安全、人工智能、欺詐和權利管理相關的產品。” “它使我們能夠通過尋找利用這兩個數據集的新解決方案在該領域進行創新。 它還帶來了新客戶和新市場。”   

Digital Envoy 專門根據互聯網用戶的 ISP 或手機運營商分配給他們的 IP 地址收集並向其客戶提供有關互聯網用戶的數據。 這些數據可以包括大致的地理位置,據說在商業應用中很有用,包括廣告。   

X-Mode 最近淘汰了一款名為 XDK 的可視化應用程序,並通過添加有關數據來源的新指南來改變做法,根據在 從技術上講。 這是該公司自 2013 年成立以來第二次更名。 以醉酒模式開始.  

收購完成後,Digital Envoy 在一份聲明中表示,它增加了新的道德準則、數據道德審查小組、敏感的應用程序政策,並將聘請首席隱私官。 

閱讀中的源文章和信息 “紐約客” 重新編碼 來自 Vox,在 華爾街日報 而在 技術上. 

柏拉圖重新構想的 Web3。 數據智能放大。
單擊此處訪問。

資料來源:https://www.aitrends.com/ethics-and-social-issues/unethical-use-of-ai-being-mainstreamed-by-some-business-execs-survey-finds/

現貨圖片

最新情報

現貨圖片