精品一区二区无码毛片|中日无码av中文字幕久久|先锋影音中文字幕一区|国产乱码久久久久久高潮视频|手机AV每日更新在线观看|国产原创剧情一区二区三区

越來越聰明的AI,真的能造福人類嗎?

撰文 李信馬

最近火爆的DeepSeek,深深激勵了國人,因為其不止是在大模型的能力上,終于達到了世界一流水平,而且也讓我們看到了國內AI產業(yè)擺脫美國算力封鎖的可能。

取得了“開年紅”是好消息,不過,筆者也有些“杞人憂天”的想法:越來越聰明的AI,真的能造福人類嗎?

AI碾過老病殘

2024年12月4日,紐約曼哈頓的一聲槍響,揭開了人類反抗AI暴政的序幕。

躺在血泊中的美國聯(lián)合健康保險公司首席執(zhí)行官布萊恩·湯普森,在他50歲的人生里,是真正意義上的“成功人士”,2023年,他的總薪酬高達1020萬美元,而槍擊他的26歲青年路易吉·尼古拉斯·曼吉奧內出身顯赫、才華橫溢,所有認識他的人都不會懷疑,他將擁有遠大的前程。

兩人命運的交錯,令全世界感到錯愕,而科技的進步,卻成為了引爆這一切的導火索。

圖片來源:網絡

2021年,布萊恩·湯普森擔任聯(lián)合健康保險CEO,成功帶動公司的利潤不斷增長。不過,代價是什么呢?

在他的任期內,聯(lián)合健康集團被指責通過AI手段大規(guī)模拒賠以及減少保費支出。據(jù)外媒報道,美國私人醫(yī)療保險行業(yè)的平均拒保率約為16%,聯(lián)合健康的拒保率則是全行業(yè)最高的32%。在美國阿拉巴馬州的聯(lián)合健康分支機構,拒賠率達到了驚人的41.6%。

所謂的AI手段,就是用AI取代人做決定。

2020年,聯(lián)合健康用10億美元的價格收購了急性后護理管理軟件服務公司naviHealth,這家公司宣稱的主要業(yè)務,是與醫(yī)療提供商合作,通過技術工具協(xié)調臨床決策,并跟蹤患者數(shù)據(jù)。

naviHealth 有一款名為nH Predict 的人工智能算法,它的作用是估算病人術后需要多長時間的后期護理。保險公司只需要輸入年齡、生活狀況、身體機能等信息,AI就會自動給出一系列結果,包括醫(yī)療需求、出院日期等......

聽起來很先進?這項技術也許唯一的問題就是,它比人類更“冷酷”,估算出來的時間,有時候短于醫(yī)生的建議,也短于病人的實際需求。有的病人合理的理賠被拒絕,也有醫(yī)生診斷也被干涉,影響了最終的治療和康復。

但是對保險公司來說,可就省下來了不少的保費支出。

2023年10月,naviHealth因使用算法削減患者護理費用受到國會批評;次月,有集體訴訟稱,naviHealth的內部算法拒絕護理索賠的錯誤率高達90%。

2024年10月,美國參議院發(fā)布的報告顯示,聯(lián)合健康集團在2019年至2022年期間大幅增加了通過算法自動化處理的索賠拒絕,系統(tǒng)性地限制了后期護理(包括家庭健康服務和長期住院護理)以實現(xiàn)利潤最大化。

2020年到2022年,聯(lián)合健康集團的后期護理拒絕率從10.9%上升到22.7%,與之形成鮮明對比的是,集團的年利潤從2021年的120億美元上漲到了2023年的164億美元。在2024年《財富》世界500強企業(yè)中,聯(lián)合健康集團名列第八,年營收高達3716億美元。

“delay(拖延)”“depose(驅逐)”“deny(否認)”,這三個單詞被刻在彈殼上,遺留在案發(fā)現(xiàn)場,就是青年路易吉對聯(lián)合健康集團最直白的控訴。

不過,路易吉少有,而AI的應用卻越來越廣泛。就像很多科幻片所擔憂的那樣,有一天人工智能無處不在,那對人類來說,是好事還是壞事呢?

替代人類的AI

再溫和的話語也改變不了一個客觀事實——一些原本屬于人類的工作,正在被AI替代。

就像火炮擊碎了騎士的城堡,蒸汽機淘汰了原始的畜力,人工智能越來越聰明,聰明到尚不用超過人類時,許多人類勞動的性價比就已經喪失了。

這種改變有時是轟轟烈烈的,比如無人出租車對人類司機的替代,因為龐大的產業(yè)鏈和與人的生命安全息息相關而受到廣泛關注。有的則悄無聲息,比如公司里的一名員工被裁員了,沒有人來頂替他的職位或者接手他的工作,但公司沒有受到任何影響,只是少發(fā)了一份工資。

在這些職業(yè)中,客服是極具代表性的一種,也是目前AI應用最為成熟的領域之一。這兩天有一條消息在網絡上流傳,國產美妝品牌韓束的母公司上美股份內部聊天群里,董事長兼CEO呂義雄提到要用AI替代人工,其中裁員比例最慘烈的就是客服,淘汰率高達95%。

網傳的上美股份內部聊天記錄 圖片來源:網絡

這個即將消亡的人類崗位,也是一個有趣的例子,既可以證明AI替代人工是大勢所趨,也驗證了,有時候技術落地的目的,并非造福大多數(shù)人,只是為了“降本增效”。

企業(yè)和用戶通過產品進行交易,當產生矛盾時,客服就是企業(yè)和用戶之間溝通的橋梁。但雇傭人工客服,除了工資,企業(yè)還要承擔培訓、場地等費用,職工還需要下班休息,如果為了提供24小時客服而三班倒,那成本簡直在飆升。于是,在上一個十年,不少企業(yè)就采用了尚不成熟的AI技術,讓用戶們好好感受到了什么叫“人工智障”。

對此筆者也深有體會,有時AI客服的確也能解決問題,但當你火急火燎的時候,電話另一邊的AI還在不緊不慢的挨個報項目讓你來撥號,念到最后發(fā)現(xiàn)沒有對應的選項,簡直能把人給氣死。

從技術的角度來說,早期的智能客服,是以NLP(自然語言處理)技術為核心,融合了ASR、TTS、機器學習、知識圖譜等技術,使機器完成識別、理解和反饋,本質上還是判別式AI。僅這一點,它的效果就不可能有多好,因為判別式AI就聊不好天。

對此,企業(yè)心知肚明,但它實在太便宜了!

好在故事還有下半場,隨著以大模型技術為代表的生成式AI興起,新一代的智能客服“善談”了許多,讓用戶體驗大大改善,也為人工客服敲下了最后一顆棺材釘。

在中國,智能客服算是一個“風口”,在金融、政府、電信、互聯(lián)網/電商、零售、能源、制造、醫(yī)療等領域,智能客服正在被廣泛應用。去年8月,國際數(shù)據(jù)公司(IDC)發(fā)布的《中國智能客服市場份額, 2023 :新舊交替,增長可期》 報告顯示,2023年智能客服解決方案整體市場規(guī)模達到了30.8億人民幣,較2022年增長了近36.9%。

去年年末,筆者采訪了容聯(lián)云副總裁孔淼,在智能客服領域有豐富經驗的孔淼認為,智能客服對人工客服的取代,是明顯的“技術驅動”,先有互聯(lián)網、移動化、大數(shù)據(jù)、大模型等技術,有的企業(yè)因技術而受益,進而推廣形成相應的產品和軟件標準。

而先進的生產力一定會取代落后的生產力,這一點,從其推動者也可以看出。國內智能客服領域,市場份額占比前三的都是云廠商,它們既有龐大的客戶群體,也是國內研發(fā)大模型的主力軍。在更大范圍的全球市場上也是如此,不久前,亞馬遜云科技在 2024 re:Invent 全球大會上推出的云聯(lián)絡中心解決方案 Amazon Connect,有著強大的智能客服能力,據(jù)稱將美的全球聯(lián)絡中心的60秒內用戶電話接通率提高到了95%以上。

未來人類,將不得不習慣和AI打交道,但對人尚且“知人知面不知心”,我們又怎么判斷AI的善惡呢?

誰來決定AI的善惡?

這個問題其實應該分兩部分,首先,是人類想要“教好”AI。

當AI訓練的數(shù)據(jù)本身存在偏差,算法本身有問題,還有訓練AI時的指導原則不當時,AI就可能會“學壞”。訓練大語言模型有一個原則是“輸入垃圾,輸出垃圾”,最近紐約大學的研究者發(fā)表在 Nature Medicine上的研究顯示,僅將0.001%的訓練token替換為錯誤信息,就訓練出了更有可能傳播錯誤醫(yī)學的模型。至于容易產生幻覺,還有大語言模型“愛騙人”,更是老生常談,并且規(guī)模越大的模型越難以改正。

還是以智能客服為例,孔淼介紹,他們在落地模型時,為了讓模型能夠更好地理解行業(yè)術語、業(yè)務流程和客戶需求,在預訓練階段,會利用企業(yè)沉淀的數(shù)據(jù)資源,還有垂直領域的公開數(shù)據(jù)來增強模型的理解能力。應用時,還要關注流程效率、數(shù)據(jù)整合等,包括公有數(shù)據(jù)與私有數(shù)據(jù)的融合,以及RAG等配套措施的實施。

此外,還要防備大模型被壞人利用,比如微軟的聊天AI,曾經就被網友們教會了罵臟話而不得不下線。大模型時代,更智能的AI一旦被利用造成的危害會更嚴重。

不過,人類對AI的應用水平也在不斷進步,這些問題是會被逐漸解決的。

更大的問題在于,當人類有能力訓練出好的模型,卻如同文章開頭的案例那樣,出于利益的目的,而故意“教壞”了AI。說到底,AI的良心取決于訓練它的人。

不久前,IBM的一項研究發(fā)現(xiàn),AI已經可以非常擅長編寫網絡釣魚的電子郵件,可以自動化的生成并進行海量的分發(fā)。當AI越來越聰明,謊言越來越完善,人類也會從破口大罵到半信半疑,再到深信不疑,現(xiàn)在中文互聯(lián)網已經有被AI生成的內容污染的跡象。去年就曾有人用chatGPT編寫假新聞,說杭州要取消汽車限行,不少媒體還轉載了。

保證大模型被安全的使用,也是未來人類要面臨的重要挑戰(zhàn)。

在2023年4月,OpenAI發(fā)布了《我們邁向人工智能安全路徑》白皮書,提到了6點原則:

  1. 構建安全的AI系統(tǒng)
  2. 實際應用中持續(xù)去做改進安全測試
  3. 保護兒童
  4. 尊重隱私
  5. 提高事實準確性
  6. 開放持續(xù)投入,促進合作

但一直到去年5月,OpenAI才正式成立了安全委員會,在8月才開始將新模型交美國政府來進行安全評估。

去年年底,螞蟻集團數(shù)據(jù)治理和發(fā)展部總監(jiān)吳映京在接受DoNews采訪時,談到這個話題,他表示,AI發(fā)展本質上的一個終極命題,就是我們會不會變成《黑客帝國》,由AI控制一切?目前來看,AI大致還是被關在籠子中的。

“首先,對AI要受到監(jiān)管這一點,各國政府的態(tài)度非常明確。2024年6月歐盟的《人工智能法》里面,提出了對人工智能進行分級的概念,歐洲過去一直是人權第一,但是在AI上適當?shù)仂`活,將人工智能的風險分級,像是保險拒賠的環(huán)節(jié),甚至未來在犯罪發(fā)現(xiàn)的環(huán)節(jié),用AI一定要做更強的人工干預,來確保它沒有偏見和歧視。如果是日常的,比如說去咨詢怎么買票,怎么訂餐這種屬于低風險的領域,可以做低風險的監(jiān)管,美國的思維也類似。

我們國家從《個人信息保護法》上來講,有明確的一條講自動化決策,如果自動化決策對于個人權益有重大影響,第一要能夠給予充分的解釋,要對用戶可解釋;第二用戶要有權拒絕自動化決策,可以要求必須有人工判斷。至少我了解到的,不管是金融還是其他領域涉及到對用戶有重大影響的環(huán)節(jié),在國內一定是依據(jù)可解釋的規(guī)則和依賴人工的強干預。”

圖片來源:螞蟻集團

但從技術上來說,螞蟻集團大模型數(shù)據(jù)安全總監(jiān)楊小芳表示,AI的倫理或者說價值觀,是沒辦法和人類完全對齊的,實際應用中,人類也會賦予AI說話甚至代替人類決策的權力,那么就會存在人工智能過度代理的問題,超出人類能想象到的測試或者防控范圍。

如果我們期盼,AI的不斷發(fā)展,能夠始終造福人類,而不會傷害人類,那么我們需要與時俱進的監(jiān)管制度的建設,在政策的引導下,再通過技術去緩釋這樣的風險。

畢竟,作為人類,與其求神拜佛一樣指望AI有“良心”,還是更應該從源頭上就做好這一切。

標簽: AI DeepSeek
越來越聰明的AI,真的能造福人類嗎?
掃描二維碼查看原文
分享自DoNews
Copyright ? DoNews 2000-2025 All Rights Reserved
蜀ICP備2024059877號-1