在曾毅看來,如果技術發展只關注科學突破而忽視了其對社會的潛在負面影響,特別是不考慮到如何緩解這些影響,那么技術進步可能會加劇社會不平等。如果在開發和應用技術時積極考慮并解決技術可能帶來的負面影響,那么技術就有可能被用來彌合數字鴻溝,促進社會公平。

技術對社會不平等的影響可能會跨越多代人,因此,人們在享受技術帶來的便利的同時,也需要考慮其對后代的潛在影響,并采取措施以確保技術發展不會加劇社會不平等。曾毅指出,“智能鴻溝”是一個社會和技術交織的問題,需要多方面的努力來解決。這不僅僅是技術研究者和開發者的責任,也是政策制定者、教育者和整個社會需要共同面對的挑戰。

理性認識人工智能及其價值觀

人工智能是一種信息處理工具,它通過學習和模仿人類行為來執行任務;人工智能解決問題的方式、機制跟人有著很大的差異,一些時候它能幫助人類解決問題,但有時候它會以一種完全不可接受的方式、或者完全沒有能夠想象到的方式去犯錯誤。

目前,人工智能是基于數據驅動的模型,通過數學優化器從數據中學習并生成期望的輸出。然而,真正的人工智能應該能夠模擬人類智能的各個方面,包括計算機制、內部機理和行為表現,并且能夠以人類可理解的方式進行交流。曾毅表示,人工智能的核心在于數據和算法,這兩個要素可能產生偏見,因為它們來源于社會數據,這些數據記錄了人類行為,可能包含人類的偏見。

人工智能本身不具備道德判斷能力,它的行為和輸出是由其訓練數據和算法決定的。在這種背景下,可以說人工智能是中立的,它既可以為善也可以為惡,還可能會無意中復制和放大人類的偏見和錯誤。這取決于它的數據和算法如何被設計和使用。

生成式人工智能是AI的一個分支,它使用“Next Token Prediction”技術,通過分析序列數據的統計顯著性來預測下一個最可能的輸出。這種技術在推薦系統等領域有廣泛應用。

人工智能是否能夠獲得意識?這取決于其發展方式。如果使用大規模數據進行訓練,它可能會表現出看似有意識的行為。但由于計算機和人類的工作機制不同,意識的本質難以界定。只有當人工智能能夠基于自身經驗理解他人行為時,它才能產生認知共情和情感共情,從而產生道德和利他行為。

“人工智能的主要挑戰在于如何確保其輸出符合人類的倫理和道德標準”。曾毅表示,人工智能存在如下幾方面的問題:一是缺乏真正的理解和判斷能力,它不能像人類那樣明辨善惡;二是可能習得并放大人類的偏見;三是在面對復雜或未預見的情況時,可能無法做出符合倫理的決策。此外,隨著AI技術的發展,它可能會學習到人類的欺騙策略,這增加了對人工智能行為控制的難度。

為了更好地駕馭人工智能,人們需要確保其設計和訓練過程遵循倫理原則,減少偏見的產生。同時也需要對人工智能的決策過程進行監督和評估,確保其在各種情況下都能做出符合人類價值觀的決策。而隨著人工智能技術的進步,人們也需要不斷更新和完善對人工智能的監管和指導,以應對可能出現的新挑戰。

大量工作正在被AI取代,未來AI會不會來搶工作?

《論語》中有一句話叫做“君子不器”,器,就是器物,有好用的,不好用的,“君子不器”就是說人一生要成為君子,不要去做一個器物。

人工智能是什么?曾毅指出,人工智能其實是一個工具,好聽一點就是智能信息處理的工具,難聽一點就是總是欺騙人、讓人覺得它是智能的信息處理工具。

一個人被人工智能替代,也就是說他被一個工具所替代,這意味著本身他把自己當作了“器”。如果人工智能暫時替代了人的那份工作——無論是當初他如何熱愛的工作,實際上也是向他提供了一個很好的機會,倒逼反思如何適應新的技術挑戰,如何在新形勢下追求內心自我、追求人生價值。人們經常講人工智能“向善”,善是追求本源,人的一生其實也是在不斷的追尋自我本質、完善自我的一生。

《The Future of Work》一書的作者在討論中表示,未來很多社會服務性的工作需要人類情感交流,以前不會被認為是工作的,未來都會被認為是工作,比如機器人喂食老人、看護小孩。不過,由于人類情感的互動基礎就是演化,不論是老人還是小孩,都沒有動機去跟機器人交流和互動。讓一個器具去做社會性需要情感交流甚至是對于家庭的服務,這不是人工智能應當去探索的。

“但是,當越來越多的工作被人工智能所替代的時候,不可替代的部分就會變得越來越清晰?!痹愎潟裾f,ChatGPT問世之初,很多新聞工作者都擔心自己的工作會被替代,一年后的今天,這一現象并沒有明顯的發生。人工智能的進展證明,當互聯網上出現更大規模的人工智能書寫的數據和知識,而這些數據和知識又被喂到人工智能去訓練的時候,人工智能的能力會變的越來越弱。人工智能代替部分的工作,就像蒸汽機、計算機時代的出現,會提供一些加持和期待,那種期待帶來短期的焦慮,讓更多的人回歸本位。

人工智能到底是人類的幫手還是對手?

人工智能到底是幫手還是對手?

在曾毅看來,這不是一個“yes”或“no”的問題。以無人車為例,“蘿卜快跑”話題一度十分熱鬧,也遭到很多出租車司機反對。有人說出租車司機要跟上技術變化,認為其應該找到更有意義的工作。但曾毅完全否定了這個觀點。在他看來,高鐵、飛機絕大多數情況下都是采取自動駕駛方式,它們的安全性最高,相比之下,汽車是這三項交通工具中最危險的交通工具,即使是人類駕駛。

更安全的飛機與更安全的火車不去做完全無人化的替代,反而在道路上行駛的汽車就一定把司機替換下來?

“這個邏輯是完全不成立的?!痹阏f,“飛機和火車的風險低,但可控性比較差,極端情況下人是最后的護航,汽車也是一樣的道理,不能說汽車上只有一兩名乘員,就沒有多大的代價。這是個倫理難題,不能根據年齡、數量、種族等做決定。我認為無人車技術發展過程中有點聽之任之,或者過于追求短期的利益。不能因為馬斯克大力發展無人車,中國也要大力發展無人車;要通過負責任的研發和使用人工智能,將人工智能塑造為人們的幫手?!?/p>

他承認無人系統很有價值,特別是在一些非常高危的場景,比如井下煤礦作業,作為人形機器人就能發揮很好的替代工作。

曾毅堅信,人工智能不會成為人類的對手,但如果不負責任地研發和使用、濫用或惡用,那人類連跟人工智能競爭的機會都沒有,甚至不知道它將以什么樣的方式毀滅人類。

“蘿卜快跑”熱度快速降低,正是因為頂層監管。畢竟,社會的方方面面都沒有準備好。所以技術和社會的解決方案要加持在人工智能發展的過程中,絕對不能夠依靠技術去解決潛在風險,不能把希望僅僅寄托于技術研究者。

如何看待攻防挑戰賽以及開源的意義?

外灘大會期間舉辦的AI創新賽?全球Deepfake攻防挑戰賽,是人氣最旺的活動之一。主辦方用人工智能技術對抗Deepfake的TOP選手代表鑒別圖像和視頻的真偽,引發陣陣歡呼。曾毅表示,這種攻,是指突破技術能夠達到的極致,但是這種突破,比如合成,合成很多的假圖片以假亂真,不僅肉眼無法分辨,甚至連機器也分辨不出來。但當獲勝方是攻而不是防的時候,深度造假這個問題是無解的。畢竟,下一個能夠被研發出來防御措施,是非常不確定的。因此,這實際上也是一個不負責的行為。

曾毅指出,很多信息安全領域的專家表達出擔憂,都希望能把防護的技術也同時做好。事實上,已經有這樣的企業——他們攻破了所有的手機的人臉識方法,同時封死了互聯網上所有用戶的銀行帳戶。因此,研發出的利器越多,帶來的傷害會更大。

在曾毅看來,造一個堅硬無比的矛,再造一個非常優秀的盾,從商業角度意味著可以同時銷售兩類產品,但對于社會而言,潛在的風險巨大,因為對應的監管措施非常薄弱。

他同時指出,如果一項技術有明確的潛在風險,但不能先解決自己能夠解決的問題,反而帶來新的問題,那么,解決方案作為一種開源的工具是不合適的。但他對開源本身這件事情表示非常支持,開源確實能夠推進人工智能的發展和技術的進步——只要開源是為了促進發展,建設負責任的生態,那就要支持。

好在相較2018年甚至更早時候,如今絕大多數人工智能企業都意識到了自律自治與倫理安全的重要性與相關風險,采取的措施也使得人工智能的發展更合乎倫理、更具有道德。

“不是存在商業機遇的地方就是人工智能發展應當的走向。要讓人工智能成為人類的幫手,就必須負責任去塑造人工智能技術,而不要隨人工智能的野蠻的生長,誤用、濫用和惡用,給世界帶來不可預制的一環?!痹愫粲酰鹤屫撠熑蔚娜斯ぶ悄茏兂伤腥斯ぶ悄軓臉I者內在的基因,這對創新者來說是一個必選之題。

嘉賓簡介:

曾毅教授,聯合國人工智能高層顧問機構專家、北京人工智能安全與治理實驗室主任、中國科學院自動化研究所研究員,螞蟻科技倫理顧問委員會專家,是國內技術倫理領域引領的前沿專家,在國際上也很強的影響力。

Inclusion·外灘大會

Inclusion·外灘大會指導單位為上海市人民政府,由支付寶、螞蟻集團主辦,上海市地方金融監督管理局、黃浦區人民政府特別支持。自創辦以來,致力于推動科技與金融相互賦能,已成為各方矚目的交流對話平臺和產業促進平臺。今年Inclusion·外灘大會設置了豐富的議程,為專家學者、企業領袖、創新創業者充分利用大會搭建的平臺,交流創新經驗,共享發展機遇,并首次設立創新者舞臺和AI創新賽,并有多個重磅的技術產品首發亮相,多維度展現金融與科技融合的產業前景,為上海國際金融中心和科創中心建設貢獻智慧和力量。

未經允許不得轉載:存儲在線-存儲專業媒體 » Inclusion·外灘大會|中科院自動化所曾毅:人工智能是“幫手”還是“對手”?
分享到

謝世誠

相關推薦

精品国产午夜肉伦伦影院,双性老师灌满浓jing上课h,天天做天天爱夜夜爽,攵女乱h边做边走