信息技術是人類在認識自然和改造自然過程中所獲取的信息獲取、傳遞、存儲、處理等能力,極大地變革我們的思維、生活方式和工作模式,其繁衍出的互聯(lián)網(wǎng)、物聯(lián)網(wǎng)、云計算和大數(shù)據(jù)等技術,推動人工智能的發(fā)展進入到繁榮期。人工智能已經(jīng)成為當今世界大國的國家戰(zhàn)略,被譽為第四次技術革命。人工智能的通用性和多功能性,將會像電力的普及應用一樣,全方位地提升各個領域的效率。醫(yī)療領域更不例外,但任何一項技術本身都有“雙刃”效應,需要辯證客觀的加以分析,揚長避短,讓人工智能的發(fā)展始終走在服務人類的軌道上。
一、對人工智能的理解
“人工智能”(ArtificialIntelligence)一詞是美國科學家約翰·麥卡錫在1956年達特茅斯學院的夏季研討會時提出的,也從那里正式起步發(fā)展。從字面上來理解,人工智能有四個字組成,分別“人”、“工”、“智”、“能”。我們從“能”、“智能”、“人工”三個層面逐一剖析。
首先,人工智能是“能”。說明人工智能是一種能量系統(tǒng),不是物質(zhì)系統(tǒng)和信息系統(tǒng)。能量是一個物理學概念,是物質(zhì)運動轉換的量度。能量是物質(zhì)在運動過程產(chǎn)生的,有各種不同的表現(xiàn)形式。人工智能是智力運動產(chǎn)生的,可以轉移到其它運動方式中,產(chǎn)生其它能量。
其次,人工智能是“智能”。說明人工智能不同于機械能、化學能、熱能、電能、輻射能、核能、光能、潮汐能等。它是智力活動產(chǎn)生的能量,是智慧和能力的結合,其結果是產(chǎn)生行為和語言,并以行為和語言來服務于人類的需要。
最后,人工智能是“人工”。說明人工智能的智力能量來自于人工。智力力量是人工、人造的。人的工作是人工智能的源頭。人工智能不是人智慧的直接運動,而是模仿人的行為和語言;不是天然產(chǎn)生的,是人類自己模仿自己,是想把人類獨有的感覺、記憶、回憶、思維、語言等賦予除人類以外的物體。
綜上所述,人工智能是人類通過模仿智力運動過程來實現(xiàn)人腦的認知、識別、記憶、計算、邏輯思維、推理判斷等復雜思維功能。從這個角度來看,今天的人工智能在識別、記憶、計算、邏輯思維、推理判斷等方面已經(jīng)達到或超過人腦的能力,但仍然沒有觸及到智力的起點——認知。這是智能的智力運行機制問題,是揭開人類智慧的終極挑戰(zhàn)問題。現(xiàn)今的人工智能的發(fā)展得益于信息網(wǎng)絡技術收集的海量數(shù)據(jù),以控制論、信息論和系統(tǒng)論等作為基礎理論,以神經(jīng)網(wǎng)絡、遺傳算法、概率論等數(shù)學模型為核心,是腦科學研究的最新成果,是數(shù)據(jù)和算法的勝利!雖然人工智能已經(jīng)可以模擬人的某些思維過程和智能行為(如學習、推理、思考、規(guī)劃等),但還不能模仿出人腦的意識、情感、信念、直覺、思考、聯(lián)想、創(chuàng)造等高等級思維活動,處于淺層次的弱人工智能階段。在人類自身沒有弄清智力本源的問題之前,人工智能的發(fā)展將長期在這一階段徘徊,不會全面超越人類的腦力。
二、人工智能醫(yī)學運用現(xiàn)狀回顧
信息網(wǎng)絡條件下,各種智能終端的普及和傳感器的運用產(chǎn)生了大量的數(shù)據(jù),為人工智能醫(yī)學運用提供了源源不斷的養(yǎng)分,不僅給醫(yī)療領域本身帶來了一場新技術革命,更是具備了促進醫(yī)療服務模式改變的力量。人工智能在運營、預防、檢查、診斷、治療和康復等健康管理環(huán)節(jié),以及藥品研發(fā)、醫(yī)療器械生產(chǎn)等方面都有了不尋常的運用。
在醫(yī)院運營方面,可以利用人工智能檢測醫(yī)療支出中的浪費、欺詐和濫用行為,計算預約患者的到院率,合理安排醫(yī)護人員,監(jiān)測床位使用率,追蹤藥物和醫(yī)療設備狀態(tài)等,為醫(yī)院決策者提供更多的決策信息。
在疾病預防方面,2008年谷歌利用人工智能技術通過網(wǎng)絡搜索內(nèi)容來推斷流感爆發(fā)。今天,人工智能利用大數(shù)據(jù)和深度學習技術,可以預測阿爾茲海默病風險、心血管疾病風險、癌癥風險、精神疾病等。這些預測能夠幫助衛(wèi)生管理機構防控公共疫情,協(xié)助個人提升健康水平。
在檢查結果判讀過程中,人工智能最為成熟和廣泛的運用是圖像識別。在視網(wǎng)膜圖像識別、甲狀腺超聲影像診斷、肺結節(jié)影像檢測、CT影像識別等領域,人工智能的機器讀片在時間和準確率上已經(jīng)超過部分醫(yī)生,甚至是某一群體。作為輔助工具節(jié)約醫(yī)生大量的時間,提高了醫(yī)生的工作效率,為解決基層醫(yī)療資源不足的難題提供了思路。
在診療方案的提出上,人工智能還能夠模擬醫(yī)生的思維和診斷的方式、習慣和依據(jù),融合自然語言處理、認知技術、機器學習等技術,充當“人工醫(yī)生”,可以較短時間內(nèi)提供出精準的診斷結果和個性化的治療方案,供醫(yī)生參考借鑒。2018年,科大訊飛的“人工醫(yī)生”首次通過國家執(zhí)業(yè)醫(yī)師資格考試,而且超過了96%以上的人類考生,全科“人工醫(yī)生”已經(jīng)開始上崗了。
在健康管理過程中,隨著智能可穿戴設備和家庭智能健康檢測監(jiān)測設備的研發(fā)和廣泛應用,個人健康數(shù)據(jù)從過去的靜態(tài)監(jiān)測變成了動態(tài)監(jiān)測,人工智能便可以從這些動態(tài)數(shù)據(jù)中,分析判斷出個人的健康水平,能夠?qū)ρ恰⒀獕骸⒀盟幍确矫娼o予精準的指導,為患者提供便捷化、智能化、日常化的醫(yī)療護理和健康指導。
在藥物研發(fā)上,人工智能的自學習技術能精準分析生物的復雜結構網(wǎng)絡,以及微觀系統(tǒng)層面各要素之間的復雜關系,給出基因、蛋白質(zhì)層面的發(fā)展變化走向,從而使藥品的研發(fā)更具靶向性,有助于發(fā)現(xiàn)適用于廣泛人群和特定人群的藥物,從而縮短藥物研發(fā)周期,減少研發(fā)失敗,有利于新藥的出現(xiàn)。
在醫(yī)療器械生產(chǎn)上,人工智能對醫(yī)療器械應用全過程中的效果的進行智能分析,讓醫(yī)療器械的研發(fā)和使用上更加符合醫(yī)療的實際,更加契合個人的使用習慣。病人定制、醫(yī)生定制的醫(yī)療器械產(chǎn)品有可能出現(xiàn)。一些遠程化、標準化、智能化醫(yī)療器械的運用會解決外科醫(yī)生不足的問題,醫(yī)療器械的研發(fā)、生產(chǎn)和運用更加精準化。
三、人工智能醫(yī)療運用的可能問題分析
任何一項新鮮事物的出現(xiàn),必然會打破原有的結構,擾亂已形成的平衡。人工智能醫(yī)療運用確實會給醫(yī)療領域帶來“意想不到”諸多變革,但是同樣也帶來過去不曾面臨的“糾纏”和“糾結”。
(一)人工智能醫(yī)療運用會不會替代人類?
人工智能是人類發(fā)明的一項科學技術,是計算機技術的延伸,是計算機實現(xiàn)智能的原理,或制造類似于人腦智能的計算機。人工智能只是人類征服自然的工具,是人類認識和利用自然及其規(guī)律的手段,是構成社會生產(chǎn)力的重要部分。人是人工智能的創(chuàng)造者和使用者。人的能力是人進行人工智能研究的前提條件和基礎。人工智能的能力與人的能力息息相關,人工智能的升級和迭代與人的能力發(fā)展進步相關連。人始終在人工智能的發(fā)明和使用過程中處于主導地位。因而,人工智能的醫(yī)療運用是置于人的能力和人的主導下進行的,不可能超越人類自我,跨越人類之上,只能部分代替人的能力,增強人的部分能力,尤其是在涉及人類生命健康的醫(yī)療行業(yè)中,一個小小錯誤的代價可能是生命或生活功能喪失。無論人工智能的“醫(yī)療知識”有多豐富,“技術能力”如何精湛,“診治水平”怎樣高超!它仍然是同核磁、X射線、超聲、檢驗和病理一樣,是健康管理過程中的輔助決策工具,最后做決斷的是人,這是由技術的本質(zhì)屬性決定的,與技術的功能無關。
(二)人工智能醫(yī)療運用會不會喪失自我?
人類通過技術的發(fā)明和使用獲得了巨大收益的同時,卻又讓人類付出了代價,損害最明顯的是人的價值和自由。工業(yè)革命把人類從體力勞動中解放出來后,缺乏運動、高脂飲食、污染排放等開始影響人類的健康。一旦人工智能把人類從腦力勞動中解決出來,體力、腦力勞動雙解放,更容易讓人類在人工智能面前喪失“自我”,導致人自身、人與人之間、人與社會之間關系的異化,形成一種“病態(tài)世界”,人工智能在解放人類的同時又在奴役人性。這種狀況的出現(xiàn)不是人工智能的過錯,是人類使用人工智能過程中的偏差。人工智能醫(yī)療運用更讓人們陷入唯“人工智能”論,不信“真人”信“假人”,讓機器代替人類作決定,成為機器的奴隸。因而,人類須展現(xiàn)智慧的一面,有意識地去克服人工智能不利的一面,向更智慧的層面邁進。無論人工智能醫(yī)療運用有多“醫(yī)能”,它應該始終是人類改造自然的工具,是促進人類健康和尊嚴,謀求人類的長遠利益而發(fā)展的,不能成為人類文明畸形發(fā)展的災難,把人文精神貫穿人工智能醫(yī)療運用發(fā)展的始末。
(三)人工智能醫(yī)療運用會不會存在問題?
人工智能醫(yī)療運用離不開數(shù)據(jù)、算法,以及結論的執(zhí)行,但每個環(huán)節(jié)都可能存在問題。一是數(shù)據(jù)真?zhèn)螁栴}。人工智能醫(yī)療運用的起點是數(shù)據(jù),但數(shù)據(jù)的來源、記錄、整合等方面都可能存在漏洞。如有研究機構指出電子病案系統(tǒng)中80%左右醫(yī)療信息是粘貼和復制的,存在著許多疾病信息編碼、疾病描述的非標準化等錯誤。數(shù)據(jù)的整合也是其中的一個難點,如何將病歷、影像、檢驗報告里的非結構化數(shù)據(jù)轉化為可以識別的結構化數(shù)據(jù)。醫(yī)療機構之間的數(shù)據(jù)孤島現(xiàn)象,“私心”問題、全數(shù)據(jù)庫共享權限等均會制約人工智能的發(fā)展。二是算法有“偏見”。人工智能醫(yī)療運用算法的對象是不是具有代表性,算法開發(fā)者、設計者會不會有代碼“歧視”和“偏見”。這些看似無關的問題,實際上影響最終的結果,受人的主觀意識控制。如保險行業(yè)運用人工智能提高某些人群的保額或者拒保某一特定人群。三是過程缺乏科學評價。人工智能醫(yī)療運用中的數(shù)據(jù)、算法本身有沒有科學性也是問題,誰來評價這些數(shù)據(jù)、算法本身是否科學?如果數(shù)據(jù)、算法本身都存在問題,其結論的科學性就無從談起。退一步說,就算數(shù)據(jù)和算法都沒有問題,結論有沒有科學性,如何評價結論的科學性同樣需要科學的評價工具。四是責任邊際不易劃分。人工智能醫(yī)療運用是輔助診療工具,最后決策者是人,人承擔決策責任。但人工智能醫(yī)療運用的結果不同于影像學、檢驗學、病理學結果,一個是單一機器判讀的結果,一個大量數(shù)據(jù)測量的結果,誰應該承擔這一主觀性的責任。數(shù)據(jù)收集者、算法設計者、結論采用者誰應該承擔主要責任,尤其是當人工智能結果與人的主觀判斷結果不一致,且造成嚴重成果時,責任如何劃分?這些責任邊際劃分的結論也會反向促進或抑制人工智能的發(fā)展,需要一個不斷完善和健全的法律、倫理等制度保障。
(四)人工智能醫(yī)療運用會不會產(chǎn)生危險?
技術是有兩面性的,一方面是技術本身的缺陷造成的,另一方面是使用者的不安全使用。人工智能醫(yī)療運用同樣存在危險。一是信息泄露。個人醫(yī)療信息的價值僅限于個人,但相關算法不僅能直接采集個人醫(yī)療信息,也會深度挖掘分析看似不相關的數(shù)據(jù)信息。人工智能在多場景、多平臺、多時段的數(shù)據(jù)收集,以及專業(yè)化的數(shù)據(jù)處理,使得信息主體本身難以查覺和了解,無法控制其個人信息的傳播和濫用,個人信息裸露在虛擬世界中。二是反向運用。人工智能醫(yī)療運用要有倫理和法律界限,即應以人類的根本利益和責任為原則,以實現(xiàn)人類根本利益為終極目標。但相關技術稍加轉化便可以對人類形成災難,如對疾病基因的篩選可以變成對致病基因的篩選,其作用就千差萬別了。三是形成鴻溝。人工智能醫(yī)療運用發(fā)展需要相對發(fā)達的信息網(wǎng)絡技術和廣泛場景運用為基礎,需要超量的資金和科學家團體的不懈努力,但在當前全球經(jīng)濟發(fā)展不平衡、技術發(fā)展不均衡的環(huán)境下,人工智能發(fā)展出現(xiàn)了國家化和民族主義傾向,更易形成技術壟斷和壁壘,加深了國家、公司、個人之間的技術鴻溝,形成“懸崖”效應,將對人類社會的發(fā)展帶來許多不確定性的影響。