傳動網 > 新聞頻道 > 行業資訊 > 資訊詳情

Al+醫療的現狀回顧與可能問題分析

時間:2019-04-18

來源:李洪軍

導語:信息技術是人類在認識自然和改造自然過程中所獲取的信息獲取、傳遞、存儲、處理等能力,極大地變革我們的思維、生活方式和工作模式,其繁衍出的互聯網、物聯網、云計算和大數據等技術,推動人工智能的發展進入到繁榮期。

信息技術是人類在認識自然和改造自然過程中所獲取的信息獲取、傳遞、存儲、處理等能力,極大地變革我們的思維、生活方式和工作模式,其繁衍出的互聯網、物聯網、云計算和大數據等技術,推動人工智能的發展進入到繁榮期。人工智能已經成為當今世界大國的國家戰略,被譽為第四次技術革命。人工智能的通用性和多功能性,將會像電力的普及應用一樣,全方位地提升各個領域的效率。醫療領域更不例外,但任何一項技術本身都有“雙刃”效應,需要辯證客觀的加以分析,揚長避短,讓人工智能的發展始終走在服務人類的軌道上。

一、對人工智能的理解

“人工智能”(ArtificialIntelligence)一詞是美國科學家約翰·麥卡錫在1956年達特茅斯學院的夏季研討會時提出的,也從那里正式起步發展。從字面上來理解,人工智能有四個字組成,分別“人”、“工”、“智”、“能”。我們從“能”、“智能”、“人工”三個層面逐一剖析。

首先,人工智能是“能”。說明人工智能是一種能量系統,不是物質系統和信息系統。能量是一個物理學概念,是物質運動轉換的量度。能量是物質在運動過程產生的,有各種不同的表現形式。人工智能是智力運動產生的,可以轉移到其它運動方式中,產生其它能量。

其次,人工智能是“智能”。說明人工智能不同于機械能、化學能、熱能、電能、輻射能、核能、光能、潮汐能等。它是智力活動產生的能量,是智慧和能力的結合,其結果是產生行為和語言,并以行為和語言來服務于人類的需要。

最后,人工智能是“人工”。說明人工智能的智力能量來自于人工。智力力量是人工、人造的。人的工作是人工智能的源頭。人工智能不是人智慧的直接運動,而是模仿人的行為和語言;不是天然產生的,是人類自己模仿自己,是想把人類獨有的感覺、記憶、回憶、思維、語言等賦予除人類以外的物體。

綜上所述,人工智能是人類通過模仿智力運動過程來實現人腦的認知、識別、記憶、計算、邏輯思維、推理判斷等復雜思維功能。從這個角度來看,今天的人工智能在識別、記憶、計算、邏輯思維、推理判斷等方面已經達到或超過人腦的能力,但仍然沒有觸及到智力的起點——認知。這是智能的智力運行機制問題,是揭開人類智慧的終極挑戰問題。現今的人工智能的發展得益于信息網絡技術收集的海量數據,以控制論、信息論和系統論等作為基礎理論,以神經網絡、遺傳算法、概率論等數學模型為核心,是腦科學研究的最新成果,是數據和算法的勝利!雖然人工智能已經可以模擬人的某些思維過程和智能行為(如學習、推理、思考、規劃等),但還不能模仿出人腦的意識、情感、信念、直覺、思考、聯想、創造等高等級思維活動,處于淺層次的弱人工智能階段。在人類自身沒有弄清智力本源的問題之前,人工智能的發展將長期在這一階段徘徊,不會全面超越人類的腦力。

二、人工智能醫學運用現狀回顧

信息網絡條件下,各種智能終端的普及和傳感器的運用產生了大量的數據,為人工智能醫學運用提供了源源不斷的養分,不僅給醫療領域本身帶來了一場新技術革命,更是具備了促進醫療服務模式改變的力量。人工智能在運營、預防、檢查、診斷、治療和康復等健康管理環節,以及藥品研發、醫療器械生產等方面都有了不尋常的運用。

在醫院運營方面,可以利用人工智能檢測醫療支出中的浪費、欺詐和濫用行為,計算預約患者的到院率,合理安排醫護人員,監測床位使用率,追蹤藥物和醫療設備狀態等,為醫院決策者提供更多的決策信息。

在疾病預防方面,2008年谷歌利用人工智能技術通過網絡搜索內容來推斷流感爆發。今天,人工智能利用大數據和深度學習技術,可以預測阿爾茲海默病風險、心血管疾病風險、癌癥風險、精神疾病等。這些預測能夠幫助衛生管理機構防控公共疫情,協助個人提升健康水平。

在檢查結果判讀過程中,人工智能最為成熟和廣泛的運用是圖像識別。在視網膜圖像識別、甲狀腺超聲影像診斷、肺結節影像檢測、CT影像識別等領域,人工智能的機器讀片在時間和準確率上已經超過部分醫生,甚至是某一群體。作為輔助工具節約醫生大量的時間,提高了醫生的工作效率,為解決基層醫療資源不足的難題提供了思路。

在診療方案的提出上,人工智能還能夠模擬醫生的思維和診斷的方式、習慣和依據,融合自然語言處理、認知技術、機器學習等技術,充當“人工醫生”,可以較短時間內提供出精準的診斷結果和個性化的治療方案,供醫生參考借鑒。2018年,科大訊飛的“人工醫生”首次通過國家執業醫師資格考試,而且超過了96%以上的人類考生,全科“人工醫生”已經開始上崗了。

在健康管理過程中,隨著智能可穿戴設備和家庭智能健康檢測監測設備的研發和廣泛應用,個人健康數據從過去的靜態監測變成了動態監測,人工智能便可以從這些動態數據中,分析判斷出個人的健康水平,能夠對血糖、血壓、血脂,用藥等方面給予精準的指導,為患者提供便捷化、智能化、日常化的醫療護理和健康指導。

在藥物研發上,人工智能的自學習技術能精準分析生物的復雜結構網絡,以及微觀系統層面各要素之間的復雜關系,給出基因、蛋白質層面的發展變化走向,從而使藥品的研發更具靶向性,有助于發現適用于廣泛人群和特定人群的藥物,從而縮短藥物研發周期,減少研發失敗,有利于新藥的出現。

在醫療器械生產上,人工智能對醫療器械應用全過程中的效果的進行智能分析,讓醫療器械的研發和使用上更加符合醫療的實際,更加契合個人的使用習慣。病人定制、醫生定制的醫療器械產品有可能出現。一些遠程化、標準化、智能化醫療器械的運用會解決外科醫生不足的問題,醫療器械的研發、生產和運用更加精準化。

三、人工智能醫療運用的可能問題分析

任何一項新鮮事物的出現,必然會打破原有的結構,擾亂已形成的平衡。人工智能醫療運用確實會給醫療領域帶來“意想不到”諸多變革,但是同樣也帶來過去不曾面臨的“糾纏”和“糾結”。

(一)人工智能醫療運用會不會替代人類?

人工智能是人類發明的一項科學技術,是計算機技術的延伸,是計算機實現智能的原理,或制造類似于人腦智能的計算機。人工智能只是人類征服自然的工具,是人類認識和利用自然及其規律的手段,是構成社會生產力的重要部分。人是人工智能的創造者和使用者。人的能力是人進行人工智能研究的前提條件和基礎。人工智能的能力與人的能力息息相關,人工智能的升級和迭代與人的能力發展進步相關連。人始終在人工智能的發明和使用過程中處于主導地位。因而,人工智能的醫療運用是置于人的能力和人的主導下進行的,不可能超越人類自我,跨越人類之上,只能部分代替人的能力,增強人的部分能力,尤其是在涉及人類生命健康的醫療行業中,一個小小錯誤的代價可能是生命或生活功能喪失。無論人工智能的“醫療知識”有多豐富,“技術能力”如何精湛,“診治水平”怎樣高超!它仍然是同核磁、X射線、超聲、檢驗和病理一樣,是健康管理過程中的輔助決策工具,最后做決斷的是人,這是由技術的本質屬性決定的,與技術的功能無關。

(二)人工智能醫療運用會不會喪失自我?

人類通過技術的發明和使用獲得了巨大收益的同時,卻又讓人類付出了代價,損害最明顯的是人的價值和自由。工業革命把人類從體力勞動中解放出來后,缺乏運動、高脂飲食、污染排放等開始影響人類的健康。一旦人工智能把人類從腦力勞動中解決出來,體力、腦力勞動雙解放,更容易讓人類在人工智能面前喪失“自我”,導致人自身、人與人之間、人與社會之間關系的異化,形成一種“病態世界”,人工智能在解放人類的同時又在奴役人性。這種狀況的出現不是人工智能的過錯,是人類使用人工智能過程中的偏差。人工智能醫療運用更讓人們陷入唯“人工智能”論,不信“真人”信“假人”,讓機器代替人類作決定,成為機器的奴隸。因而,人類須展現智慧的一面,有意識地去克服人工智能不利的一面,向更智慧的層面邁進。無論人工智能醫療運用有多“醫能”,它應該始終是人類改造自然的工具,是促進人類健康和尊嚴,謀求人類的長遠利益而發展的,不能成為人類文明畸形發展的災難,把人文精神貫穿人工智能醫療運用發展的始末。

(三)人工智能醫療運用會不會存在問題?

人工智能醫療運用離不開數據、算法,以及結論的執行,但每個環節都可能存在問題。一是數據真偽問題。人工智能醫療運用的起點是數據,但數據的來源、記錄、整合等方面都可能存在漏洞。如有研究機構指出電子病案系統中80%左右醫療信息是粘貼和復制的,存在著許多疾病信息編碼、疾病描述的非標準化等錯誤。數據的整合也是其中的一個難點,如何將病歷、影像、檢驗報告里的非結構化數據轉化為可以識別的結構化數據。醫療機構之間的數據孤島現象,“私心”問題、全數據庫共享權限等均會制約人工智能的發展。二是算法有“偏見”。人工智能醫療運用算法的對象是不是具有代表性,算法開發者、設計者會不會有代碼“歧視”和“偏見”。這些看似無關的問題,實際上影響最終的結果,受人的主觀意識控制。如保險行業運用人工智能提高某些人群的保額或者拒保某一特定人群。三是過程缺乏科學評價。人工智能醫療運用中的數據、算法本身有沒有科學性也是問題,誰來評價這些數據、算法本身是否科學?如果數據、算法本身都存在問題,其結論的科學性就無從談起。退一步說,就算數據和算法都沒有問題,結論有沒有科學性,如何評價結論的科學性同樣需要科學的評價工具。四是責任邊際不易劃分。人工智能醫療運用是輔助診療工具,最后決策者是人,人承擔決策責任。但人工智能醫療運用的結果不同于影像學、檢驗學、病理學結果,一個是單一機器判讀的結果,一個大量數據測量的結果,誰應該承擔這一主觀性的責任。數據收集者、算法設計者、結論采用者誰應該承擔主要責任,尤其是當人工智能結果與人的主觀判斷結果不一致,且造成嚴重成果時,責任如何劃分?這些責任邊際劃分的結論也會反向促進或抑制人工智能的發展,需要一個不斷完善和健全的法律、倫理等制度保障。

(四)人工智能醫療運用會不會產生危險?

技術是有兩面性的,一方面是技術本身的缺陷造成的,另一方面是使用者的不安全使用。人工智能醫療運用同樣存在危險。一是信息泄露。個人醫療信息的價值僅限于個人,但相關算法不僅能直接采集個人醫療信息,也會深度挖掘分析看似不相關的數據信息。人工智能在多場景、多平臺、多時段的數據收集,以及專業化的數據處理,使得信息主體本身難以查覺和了解,無法控制其個人信息的傳播和濫用,個人信息裸露在虛擬世界中。二是反向運用。人工智能醫療運用要有倫理和法律界限,即應以人類的根本利益和責任為原則,以實現人類根本利益為終極目標。但相關技術稍加轉化便可以對人類形成災難,如對疾病基因的篩選可以變成對致病基因的篩選,其作用就千差萬別了。三是形成鴻溝。人工智能醫療運用發展需要相對發達的信息網絡技術和廣泛場景運用為基礎,需要超量的資金和科學家團體的不懈努力,但在當前全球經濟發展不平衡、技術發展不均衡的環境下,人工智能發展出現了國家化和民族主義傾向,更易形成技術壟斷和壁壘,加深了國家、公司、個人之間的技術鴻溝,形成“懸崖”效應,將對人類社會的發展帶來許多不確定性的影響。


中傳動網版權與免責聲明:

凡本網注明[來源:中國傳動網]的所有文字、圖片、音視和視頻文件,版權均為中國傳動網(www.hysjfh.com)獨家所有。如需轉載請與0755-82949061聯系。任何媒體、網站或個人轉載使用時須注明來源“中國傳動網”,違反者本網將追究其法律責任。

本網轉載并注明其他來源的稿件,均來自互聯網或業內投稿人士,版權屬于原版權人。轉載請保留稿件來源及作者,禁止擅自篡改,違者自負版權法律責任。

如涉及作品內容、版權等問題,請在作品發表之日起一周內與本網聯系,否則視為放棄相關權利。

關注伺服與運動控制公眾號獲取更多資訊

關注直驅與傳動公眾號獲取更多資訊

關注中國傳動網公眾號獲取更多資訊

最新新聞
查看更多資訊

熱搜詞
  • 運動控制
  • 伺服系統
  • 機器視覺
  • 機械傳動
  • 編碼器
  • 直驅系統
  • 工業電源
  • 電力電子
  • 工業互聯
  • 高壓變頻器
  • 中低壓變頻器
  • 傳感器
  • 人機界面
  • PLC
  • 電氣聯接
  • 工業機器人
  • 低壓電器
  • 機柜
回頂部
點贊 0
取消 0