人本智能時代:誰在為AI“立規矩”?

0 評論 554 瀏覽 1 收藏 17 分鐘

在人工智能的迅猛發展中,我們正站在一個關鍵的十字路口:技術的發展究竟是為了服務人類,還是最終超越人類?隨著AI模型如OpenAI的O1展現出驚人的思維鏈能力,我們不得不面對一個更具挑戰性的議題:如何確保這些越來越“聰明”的AI,不止擁有能力更要擁有類人的價值判斷。正如“傳播學之父”麥克盧漢所提出的“人的延伸”概念,人工智能應成為人思維的延伸,即“人本智能”。本文深入探討了在人本智能時代,誰在為AI“立規矩”,以及如何確保AI技術的發展不會偏離人類的根本利益。

在人類歷史的長河中,技術的發展始終伴隨著一個根本性的問題:技術究竟是用來服務人類,還是最終超越人類?

隨著人工智能的不斷發展和進步,這個問題變得尤為迫切。尤其在OpenAI推出的O1大模型展現出驚人的思維鏈能力后,我們不得不面對一個更具挑戰性的議題:如何確保這些越來越“聰明”的AI,不止擁有能力更要擁有類人的價值判斷。

被稱為“傳播學之父”的麥克盧漢曾提出過一個概念:人的延伸。在他的理論中,媒介是人感官的延伸、望遠鏡是人眼睛的延伸、汽車是人腿的延伸,那人工智能便應該是人思維的延伸。

其本質,濃縮成四個字,也就是“人本智能”。

在《我所看見的世界》一書中,華裔科學家、“AI教母”李飛飛也強調了以人為本的重要性,她認為:“如果人工智能要幫助人們,我們的思考就必須從人們本身開始”。

以人為本的背后帶來的是科技的創新不斷突破邊界,以開放的心態擁抱新的可能性;社會的安全,強調在AI技術發展的同時,必須確保其對人類社會的負面影響降到最低;同時,也是技術的普惠,則要求AI技術的發展成果能夠惠及每一個人,而不是成為少數人的特權。

近期,由財新智庫、ESG30出品,上海交大、人工智能研究院、聯想集團聯合發布了《人本智能:人機共生時代的科技發展觀》報告,科技界連同企業界正在積極探索這一命題的答案。

這些準則和報告的核心,都是試圖在AI的快速發展與人類社會的倫理道德之間找到平衡點。它們試圖回答一個根本性問題:在AI技術日益深入人類生活的今天,我們如何確保這些技術的發展不會偏離人類的根本利益。

這是一個在人工智能的開端,就必須深思熟慮的問題。

一、AI“成長”的新煩惱

隨著人工智能技術的飛速發展,AI的能力已經從簡單的對話應答進化到了復雜的邏輯推理。以OpenAI的O1大模型為例,它不僅在自然語言處理領域展現出了驚人的能力,更在模擬人類思維鏈方面取得了突破。這種進步,雖然為人類帶來了便利,但也帶來了前所未有的挑戰。

一些令人擔憂的案例相繼出現:在醫療領域,AI系統在進行診斷決策時可能出現價值判斷偏差;在自動駕駛領域,AI面臨“電車難題”等道德困境時的決策標準仍存爭議;在內容創作領域,AI可能產生帶有偏見或誤導性的信息。這些案例表明,隨著AI系統變得越來越“聰明”,其決策邏輯和價值取向的重要性日益凸顯。

隨之而來的是對AI越來越強的監管和把控需求。AI在道德困境中的決策偏差,如在自動駕駛中必須選擇撞向一邊的行人還是另一邊的障礙物時,其決策邏輯和價值判斷的依據是什么?這些問題的復雜性在于,AI的價值觀實際上是其訓練數據的“投影”。這意味著,AI的決策不僅受到算法邏輯的影響,更受到其訓練數據中蘊含的人類價值觀的影響。

圖源:網絡

面臨的挑戰包括如何在多元文化背景下處理價值觀差異,如何在保持客觀性的同時維護主流價值觀,以及如何在技術發展與倫理道德之間找到平衡點。這些挑戰要求我們深入分析AI決策的具體影響,而不是過度渲染焦慮。我們需要客觀地講出真問題,即AI的發展可能會在不經意間放大人類的偏見,可能會在關鍵時刻做出不符合人類預期的決策,可能會在跨文化交流中造成誤解。

在確立人機關系的過程中,《人本智能》報告中提出了“三線”理念?;鶞示€是人機協作,通過混合智能實現人與AI的協同工作,提高效率和創造力;趨勢線是人機共生,隨著技術的進步,人類與AI的關系將更加緊密,走向“人機物”三元融合的新時代;底線是確保人類始終處于主導地位,無論AI技術如何發展,都必須確保人類的利益和價值觀是最終的決策依據。

“人本智能”中的理念框架為AI的健康發展提供了重要指引。

在這一過程中,業界逐漸認識到,AI的“成長”不僅僅是技術問題,更是社會問題。它涉及到法律、倫理、文化等多個層面,需要政府、企業、學術界以及公眾的廣泛參與和深入討論。而這些挑戰并非不可克服的障礙,而是AI發展過程中的必經之路。

二、科技企業:從理念到行動探索

人本智能的全新理念,目前已經有企業開始進行實踐。

曾斬獲多項國際電影節獎的知名導演陸川,在2024年進行了一次有趣的嘗試。

從年初Sora橫空出世后,越來越多的電影人開始探索與AI共創能產生怎樣的火花。在電影《西野》的創作過程中,陸川與聯想AI PC進行合作,通過AI技術在后期制作環節大幅提升了工作效率。

“如果我們用傳統的方式去做,storyboard、motionboard、previs 等等,再加上 CG……可能要做兩個月,但是

這個片子,我們只用兩天就做完了。它極大地節省了成本,還有人力時間?!标懘偨Y道。

更重要的是,對內容創作者來說,AI 和 AI PC 是一個知識平權的過程,能夠讓年輕創作者跨越門檻,快速實現創意的視覺化。普通創作者即使沒有專業的后期制作團隊,也能依托AI技術完成高質量的作品。

這是AI技術服務于每個人帶來普惠價值的一個典型案例。而以聯想為代表的企業,作為技術創新的主體,也是確?!叭吮局悄堋臂`行落地的關鍵角色。

以“人本智能”為核心的案例已經在各行各業開始擴散。

今年5月在武漢爆火的無人駕駛出租車蘿卜快跑,也在具體的行駛過程展示了如何在復雜場景中平衡效率與安全。面對中國特有的復雜交通環境,蘿卜快跑通過與政府合作,推動相關法規的制定和完善,確保自動駕駛技術的負責任使用。在技術層面,蘿卜快跑采用了高精度地圖、智能感知和精準決策技術,確保車輛在復雜道路環境中的安全穩定行駛。同時,蘿卜快跑還建立了乘客反饋機制,通過收集和分析用戶意見,不斷優化服務,體現了企業在技術創新中的自我約束和社會責任。

蘿卜快跑無人駕駛出租車

在武漢的實際運營過程中,蘿卜快跑嚴格遵守交通規則,包括在遇到行人時進行禮讓,通過多種維度的傳感器實時收集周圍環境的信息,幫助車輛識別障礙物、行人、車輛等,并作出相應的反應。尤其在經過學校路段時,經常出現因連續禮讓行人而前進緩慢,但卻在群眾中引起好評。

在服務特殊群體方面聯想也展現了AI技術的人文關懷。針對漸凍癥(ALS)患者的交流困境,聯想與斯科特-摩根基金會合作開發了一套創新的AI解決方案。該系統集成了圓形鍵盤界面、預測式AI、個性化語音復制和眼球追蹤等技術,讓患者能夠保持個性化的交流方式。

漸凍癥患者Erin Taylor通過這套系統,得以保留自己的聲音,創建數字分身,實現了繼續為孩子唱搖籃曲的心愿。更重要的是,這項技術即使在語音樣本有限的情況下,也能生成富有情感和自然的語音效果。

技術的創新還延伸到了阿爾茨海默癥患者群體。在聯想與失智癥創新組織(Innovations in Dementia)合作發起的“阿爾茨海默癥智能計劃”中,聯想基于阿爾茨海默 患者生活經歷定制了專門的 AI,打造出逼真的 3D 數字分身(avatar),為正在應對阿爾茨海默診斷的患者和家庭 提供 24 小時的對話式虛擬伴侶。

這些實踐展示了AI技術在提升特殊群體生活質量方面的獨特價值,折射出企業在AI發展過程中的深層思考。從最初的簡單功能開發,到現在注重人機協作的協調,企業的AI倫理實踐正在經歷著質的提升。這種轉變既是技術發展的必然要求,也反映了企業對社會責任的深刻認識。

在這個過程中,企業們逐步形成了一套系統的實踐方法論。首先是將“以人為本”的理念具體化為產品設計原則,確保每一個功能的開發都以服務人的需求為出發點。其次是建立起覆蓋研發全周期的倫理審查機制,從問題定義、算法設計到應用部署,每個環節都要進行倫理評估。最后是通過持續的用戶反饋和場景實踐,不斷優化和改進AI系統的表現。

從理念到行動的轉變,人本智能正在推動AI技術走向更加成熟的發展階段。

三、技術創新:從思維鏈到價值鏈

在人工智能的世界里,技術的進步不僅僅是代碼和算法的迭代,更是對人類智慧的延伸和道德倫理的深刻反思。當AI開始學會像人類一樣思考,我們面臨的挑戰也隨之升級。以聯想集團的AI技術幫助漸凍人“開口”說話的案例為例,這不僅是技術的勝利,更是對AI“三觀”塑造的一次深刻實踐。

在訓練數據的篩選優化方面,AI的“三觀”實際上是其訓練數據的“投影”。這意味著,數據的質量和代表性直接塑造了AI的語言表達、邏輯推理和價值判斷。然而,數據質量問題和代表性問題成為了AI發展中的兩大難題。有害內容的污染、偏見和歧視信息的嵌入、錯誤或過時信息的傳播,都在考驗著AI的“三觀”。此外,數據的地域分布不均、語言覆蓋不全、文化多樣性的缺失,也是我們必須正視的問題。

攻克這些難題,我們需要從數據源、算法和評估三個層面入手。在數據源層面,構建多元化、高質量的訓練數據集,加強數據審核和篩選機制,建立文化平衡的數據庫,是確保AI“三觀”正確的基礎。在算法層面,開發價值觀對齊技術,引入倫理約束機制,設計偏見檢測和糾正方法,是確保AI決策公正性的關鍵。而在評估層面,建立價值觀評估體系,開展持續性監測和優化,引入多方利益相關者參與評估,則是確保AI“三觀”持續進化的保障。

訓練數據對AI“三觀”的深層影響。就像人的成長會受到成長環境的影響一樣,AI系統的行為模式也深受訓練數據的影響。這種影響既包括直接的語言表達方式和推理邏輯,也包括間接的知識結構形成和價值判斷。面對這一挑戰,企業一方面在數據源頭下功夫,構建多元化、高質量的訓練數據集;另一方面在算法層面創新,開發價值觀對齊技術,設計偏見檢測和糾正方法。

在安全訓練的具體方法和多重保障機制設計上,AI的“三觀”同樣面臨著考驗。AI在面對道德困境和復雜決策時,如何作出符合人類價值觀的選擇,是我們必須回答的問題。通過模擬訓練,我們可以在虛擬環境中讓AI經歷各種緊急情況,學習如何作出符合人類道德標準的決策。同時,倫理審查委員會的建立,可以為AI的決策邏輯提供指導和監督。此外,提高AI決策的透明度和可解釋性,也是確保AI“三觀”正確的重要手段。

實踐證明,解決這些技術難題不能依靠單一手段,而需要系統性的方法論。

在推進這些技術創新的過程中,企業逐步形成了自己的最佳實踐。在這個過程中,如何在追求技術突破的同時守住倫理底線,如何在拓展能力邊界的同時堅守責任擔當,這些都需要整個行業的智慧和勇氣。

唯有如此,AI才能真正成為推動業務增長的核心引擎,為企業和用戶創造持久的價值。

本文由人人都是產品經理作者【Yoky】,微信公眾號:【硅星人Pro】,原創/授權 發布于人人都是產品經理,未經許可,禁止轉載。

題圖來自Unsplash,基于 CC0 協議。

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發揮!