前幾年,深藍、沃森、阿爾法系列著實讓地球人發(fā)了幾次燒!最近一段時間,隨著歲月的洗刷,人們逐漸冷靜下來后,面對各種復雜智能/智慧系統(tǒng)的期望,又不僅問道:AI靠譜嗎?人工智能真能在對抗博弈(多域、跨域)中起到作用嗎?對此,下面我們將拋磚引玉,提出幾點粗淺的認識以享!
人工智能有限的理性邏輯和困難的跨域能力是其致命的缺陷。人工智能無法理解相等關系,尤其是不同事實中的價值相等關系;人工智能也無法理解包含關系,尤其是不同事實中的價值包含關系(小可以大于大,有可以生出無)。人可以用不正規(guī)不正確的方法和手段實現(xiàn)正規(guī)正確的目的,還可以用正規(guī)正確的方法和手段實現(xiàn)不正規(guī)正確的意圖。還有,人可以用普通的方法處理復雜的問題,還可以(故意)用復雜的方法解答簡單的問題。
人工智能的理念源于20世紀40年代。1948年,英國科學家圖靈在其論文《計算機器與智能》中描述了可以思考的機器”,被視為人工智能的雛形,并提出“圖靈測試”。在之后的 1956年,馬爾文·明斯基、約翰·麥卡錫、香農等學者在美國達特茅斯學院召開了一次關于人工智能的研討會,史稱“達特茅斯會議”, 正式確立了人工智能的概念與發(fā)展目標。研究領域包括命題推理、知識表達、自然語言處理、機器感知、機器學習等。人工智能60多年的發(fā)展歷程,可以總結為以下幾個主要發(fā)展階段。第一次高潮期(1956~1974):達特茅斯會議之后,研究者們在搜索式推理、自然語言、機器翻譯等領域取得了一定的成果。第一次低谷期(1974~1980):隨著計算機運算能力不足、計算復雜性較高、常識與推理實現(xiàn)難度較大等原因造成機器翻譯項目失敗,人工智能開始受到廣泛質疑和批評。第二次高潮期(1980~1987):具備邏輯規(guī)則推演和在特定領域解決問題的專家系統(tǒng)開始盛行,日本“第五代計算機計劃”為其典型代表。第二次低谷期(1987~1993):抽象推理不再被繼續(xù)關注,基于符號處理的智能模型遭到反對。發(fā)展期(1993~2012):“深藍”等人工智能系統(tǒng)的出現(xiàn)讓人們再次感受到人工智能的無限可能。爆發(fā)期(2012-):機器學習、移動網絡、云計算、大數(shù)據(jù)等新一代信息技術引發(fā)信息環(huán)境和數(shù)據(jù)基礎變革,運算速度進一步加快且成本大幅降低,推動人工智能向新一代階段爆發(fā)式增長。
現(xiàn)代的人工智能有點像小學生做作業(yè),布置什么就是什么,缺乏需求任務的自主/自動生成、動態(tài)任務規(guī)劃、需求矛盾協(xié)調。很難處理快態(tài)勢感知和慢態(tài)勢感知之間的矛盾,更不容易實現(xiàn)整個人機環(huán)境系統(tǒng)的有機相互聯(lián)動和事實與價值元素的混編嵌入。
人機融合智能機制、機理的破解將成為未來戰(zhàn)爭致勝的關鍵。任何分工都會受規(guī)模和范圍限制,人機融合智能中的功能分配是分工的一部分,另外一部分是能力分配。功能分配是被動的,外部需求所致;能力分配是主動的,內部驅動所生。在復雜、異質、非結構、非線性數(shù)據(jù)/信息/知識中,人的或者是類人的方向性預處理很重要,當問題域被初步縮小范圍后,機器的有界、快速、準確優(yōu)勢便可以發(fā)揮出來了;另外,當獲得大量數(shù)據(jù)/信息/知識后,機器也可以先把他們初步映射到幾個領域,然后人再進一步處理分析。這兩個過程的同化順應、交叉平衡大致就是人機有機融合的過程。
未來的關鍵就在于人機融合的那個“恰好”!陰陽魚中間的那條S形分隔線,無論怎樣機器是不可能創(chuàng)造出意識來的,機器再多再大,也只是源自半個世界,小半個的世界。如若不信,不妨就請稍微關注一下當前的疫情演化苗頭,也許就會有點感覺了吧!
今天傍晚遛彎,竟然聽到了布谷鳥的叫聲。這不禁使人想起,不同地區(qū)的人會有不同的音譯,有“布谷,布谷”成“阿公阿婆,割麥插禾”的,還有“布谷,布谷”成“不哭不哭,光棍好苦”的,……總之,人可以隨心所意地布谷出各種各樣、千奇百怪的意思來,而對于機器而言,只有響度、音調和音色是反映聲音特性的三個物理量吧!
可解釋性:人工智能過不去的第一道坎
如今,AI的可解釋性正在成為一道過不去的坎,去年,歐盟出臺《人工智能道德準則》,明確提出AI發(fā)展方向應該是“可信賴的”,包含安全、隱私和透明、可解釋等方面。
人工智能應用以輸出決策判斷為目標?山忉屝允侵溉祟惸軌蚶斫鉀Q策原因的程度。人工智能模型的可解釋性越高,人們就越容易理解為什么做出某些決定或預測。模型可解釋性指對模型內部機制的理解以及對模型結果的理解。其重要性體現(xiàn)在:建模階段,輔助開發(fā)人員理解模型,進行模型的對比選擇,必要時優(yōu)化調整模型;在投入運行階段,向決策方解釋模型的內部機制,對模型結果進行解釋。比如決策推薦模型,需要解釋:為何為這個用戶推薦某個方案。
目前,各領域對人工智能的理解與界定因領域分殊而有不同,但在共性技術和基礎研究方面存在共識。第一階段人工智能旨在實現(xiàn)問題求解,通過機器定理證明、專家系統(tǒng)等開展邏輯推理;第二階段實現(xiàn)環(huán)境交互,從運行的環(huán)境中獲取信息并對環(huán)境施加影響;第三階段邁向認知和思維能 力,通過數(shù)據(jù)挖掘系統(tǒng)和各類算法發(fā)現(xiàn)新的知識。
嚴格意義上說,美國的人工智能技術總體上世界領先,但是一旦涉及到人機融合智能,往往就體現(xiàn)不出那么大的優(yōu)勢了,甚至不見得有領先的態(tài)勢(也許中美在人機融合智能方面根本不存在代差)。究其因,人的問題。例如這次疫情,按醫(yī)療軟件、硬件、醫(yī)療人員水平條件來看,美國應該比目前狀況要比中國好得多,可惜應了《三體》里的一句話:弱小和無知不是生存的障礙,傲慢才是!領導人的失誤和錯誤已讓許多的先進性大打折扣,甚至蕩然無存。這不禁使人聯(lián)想到前幾日美國《軍備控制雜志》的報道可能也類似吧!美國防部2021財年申請289億美元用于美國核武器設施的現(xiàn)代化建設,體現(xiàn)了特朗普政府戰(zhàn)略發(fā)展重點:提升核指揮、控制和通信(NC3)基礎設施的高度自動化與提高其速度和準確性,但同時也引發(fā)一個令人不安的問題,即在未來的核戰(zhàn)爭中,AI自主系統(tǒng)在決定人類命運方面將扮演哪種角色?當前計算機輔助決策仍處于起步階段,容易出現(xiàn)難以預料的故障。機器學習算法雖擅長面部識別等特定任務,但也會出現(xiàn)通過訓練數(shù)據(jù)傳達的內在“偏見”。因此,在將人工智能應用于核武器指控方面需采取謹慎負責的態(tài)度,只要核武器存在,人類(而不是機器)就必須對核武器的使用行使最終控制權,此時,人機融合智能的真實能力將會如疫情管控一樣顯得異常重要。
人機融合智能,根本上就是科學技術與人文藝術、數(shù)學符號事實語言與自然經驗價值語言結合的代表。時空不但在物理領域可以發(fā)生彎曲,而且還可以在智能中發(fā)生了扭曲。如果說哲學邏輯經歷了世界的本源問題、研究方法問題的轉向,那么上個世紀分析哲學——對人類語言工具的剖析成了人類思想上的一次 “革命”,這一場以維特根斯坦為象征的哲學革命,直接誘發(fā)了以圖靈機、圖靈測試為代表的人工智能科技之快速發(fā)展。但金觀濤老師的“真實性哲學”認為,在二十一世紀中分析哲學最終反倒將哲學束縛在了牢籠中,實際上也造成了思想的禁錮:符號不指涉經驗對象時亦可以有其自身的真實性,而且這一結論對數(shù)學語言和自然語言皆可成立。與此同時,純符號的真實性是可以嵌入到經驗真實性中的;科學研究與人文研究可以成為有所統(tǒng)一但互不重疊且有各自真實性標準的兩個領域。人類的巨大進步是讓真實性本能(常識的客觀性)處于終極關懷和相應價值的系統(tǒng)的支配之下。但是今天真實性的兩大柱石正在被科學進步顛覆,真正令人感到恐怖的事情發(fā)生了:人正在無法抗拒地淪為聰明的“動物”——在一個真假不分的世界里,不會有是非,也不會有真正的道德感和生命的尊嚴。
人不僅是用符號的等同或包含邏輯關系來表達世界的,人的教育不等于學習與知識,而是把欲望誘導到好的方向。計算機本身是不可能跨越“理解”這個鴻溝的,只有人才可以跨越符號指向的困窘。對主體而言,符號與經驗是混雜的,邏輯與非邏輯是混雜的,公理與非公理混雜在一起,數(shù)據(jù)、信息、知識混雜在一起,這也是為什么可解釋性之所以困難的主要原因們。人機融合就是符號(數(shù)學)如何程度不同地嵌入主體經驗(受控實驗)之中,正如老子在《道德經》中說:“道生一,一生二,二生三,三生萬物!
所謂的AI,很大程度上不過是運用了計算機不斷增強的計算能力,而采用這條路徑注定是錯誤的,人是活學活用,機是死學僵用。而人類智能就是對小樣本態(tài)勢感知的能力大小。態(tài)勢感知的一個著名例子就是中醫(yī)中的望聞問切,通過自然語言和數(shù)學語言之間的差別來打破心智與物理之間的分歧,進而把事實與價值統(tǒng)一起來。
態(tài)勢感知最早應源于《難經》第六十一難,曰:經言,望而知之謂之神,聞而知之謂之圣,問而知之謂之工,切脈而知之謂之巧。何謂也?最早使用四字聯(lián)稱,則應處于《古今醫(yī)統(tǒng)》:“望聞問切四字,誠為醫(yī)之綱領!蓖怯^察病人的發(fā)育情況、面色、舌苔、表情等;聞是聽病人的說話聲音、咳嗽、喘息,并且嗅出病人的口臭、體臭等氣味;問是詢問病人自己所感到的癥狀,以前所患過的病等;切是用手診脈或按腹部有沒有痞塊(叫做四診)。
人工智能可解釋性之所以困難,其根本原因在于其包含的不僅僅是數(shù)學語言,還有自然語言,甚至是思維語言(所以根本不可能邁過這道坎)。而人機融合智能不但可以進行主體的懸置,還可以游刃有余地進行主體變換,在人、機、環(huán)境系統(tǒng)交互中真正實時適時地實現(xiàn)深度態(tài)勢感知,有機地完成數(shù)學語言、自然語言、思維語言之間的能指、所指、意指切換,可以輕松地直奔目的和意圖實現(xiàn)。
終身學習:人工智能過不去的第二道坎
人的學習學的不是知識,而是獲取數(shù)據(jù)、信息、知識經驗的方法;機器的學習學的是數(shù)據(jù)、信息和知識。
不同的物質系統(tǒng)之間存在著相似性;同一物質系統(tǒng)的每個子系統(tǒng)與其整體系統(tǒng)之間也有相似性;具有不同運動形式和不同性質的物質系統(tǒng),卻遵守著相似的物理規(guī)律,這些事實都說明:相似性是自然界的一個基本特性。比如質量-彈簧-阻尼構成的機械系統(tǒng)與電阻-電感-電容構成的電路系統(tǒng)是相似系統(tǒng),就反映了物理現(xiàn)象之間的相似關系(一般而言,相似關系可以用來化簡復雜系統(tǒng)進行研究)。機器比較容易學習、遷移這種同質性、線性的相似系統(tǒng),卻很難實現(xiàn)異質性、非線性相似系統(tǒng)的類比、轉換。但是人的學習卻可以在對稱與非對稱、同質與非同質、線性與非線性、同源與非同源、同構與非同構、同理與非同理、同情與非同情、周期與非周期、拓撲與非拓撲、家族與非家族之間任意自由馳騁、漫步。
機器的學習離不開時間、空間和符號,而人的學習則是隨著價值、事實、情感變化而變化的系統(tǒng);機器的學習遵循、按照、依賴已有的規(guī)則,而人的學習則是如何修改舊規(guī)則、打破常規(guī)則、建立新規(guī)則。例如真正優(yōu)秀的領導人和指揮員在于如何打破規(guī)則——改革,而不是按部就班地邁著四方步穩(wěn)穩(wěn)當當?shù)刈呦驔]落和腐朽,更不是眼睜睜看著疫情泛濫施虐雙眼卻盯著競選和烏紗帽。
2017年3 月 16 日美國國防高級研究計劃局(DARPA)計劃啟動 " 終身學習機器 "(Lifelong Learning Machines,L2M)項目,旨在發(fā)展下一代機器學習技術,并以其為基礎推動第三次 AI 技術浪潮。DARPA 認為 AI 技術的發(fā)展已歷經第一次和第二次浪潮,即將迎來第三次浪潮。第一次 AI 技術浪潮以 " 規(guī)則知識 " 為特征,典型范例如 Windows 操作系統(tǒng)、智能手機應用程序、交通信號燈使用的程序等。第二次 AI 技術浪潮以 " 統(tǒng)計學習 " 為特征,典型范例如人工神經網絡系統(tǒng),并在無人駕駛汽車等領域取得進展。雖然上述 AI 技術對明確的問題有較強的推理和判斷能力,但不具備學習能力,處理不確定問題的能力也較弱。第三次 AI 技術浪潮將以 " 適應環(huán)境 " 為特征,AI 能夠理解環(huán)境并發(fā)現(xiàn)邏輯規(guī)則,從而進行自我訓練并建立自身的決策流程。由此可知,AI 的持續(xù)自主學習能力將是第三次 AI 技術浪潮的核心動力,L2M 項目的目標恰與第三次 AI 浪潮 " 適應環(huán)境 " 的特征相契合。通過研發(fā)新一代機器學習技術,使其具備能夠從環(huán)境中不斷學習并總結出一般性知識的能力,L2M 項目將為第三次 AI 技術浪潮打下堅實的技術基礎。目前,L2M包含30個性能團體的龐大基礎,通過不同期限和規(guī)模的撥款、合同開展工作。
2019年3月,DARPA合作伙伴南加州大學(USC)的研究人員發(fā)表了有關探索仿生人工智能算法的成果:L2M研究員兼USC維特比工程學院的生物醫(yī)學工程和生物運動學教授Francisco J. Valero-Cuevas與該學院博士生Ali Marjaninejad、Dario Urbina-Melendez和Brian Cohn一起,在《自然-機器智能》(Nature Machine Intelligence)雜志上發(fā)表了一篇文章,文中詳細介紹了人工智能控制的機器人肢體的成功研發(fā)。該肢體由類似動物的肌腱驅動,能夠自學行走任務,甚至能自動從平衡失調中恢復。
推動USC研究人員開發(fā)這一機器人肢體的是一種仿生算法,只需五分鐘的“非結構化游戲”(unstructured play),就能自主學習行走任務;也就是說,進行隨機運動,使機器人能夠學習自己的結構和周圍的環(huán)境。
當前的機器學習方法依賴于對系統(tǒng)進行預編程來處理所有可能的場景,復雜、工作量大且低效。相比之下,USC研究人員揭示,人工智能系統(tǒng)有可能從相關的經驗中學習,因為隨著時間的推移,它們致力于尋找和適應解決方案,以應對挑戰(zhàn)。
實際上,對于眾多無限的學習而言,人是很難實現(xiàn)終身的,總有一些能學習到,還有許多另一些也一知半解甚至一無所知的更多,對于沒有“常識”和“類比”機理的機器而言,終身學習也許就是一個口號!首先需要理清楚的應該是:哪些能學?哪些不能學?
人類的學習是全方位的學習,不同角度的學習,一個事物可以變成多個事物,一個關系可以變成多個關系,一個事實不但可以變成多個事實,甚至還可以變成多個價值,更有趣的是,有時,人的學習還可以多個不同的事物變成一類事物,多個不同的關系可以變成一個關系,多個事實可以變成一個事實,甚至還可以變成一個價值。而機器學習本質上是人(一個或某些人)的認知顯性化,嚴格意義上,是一種“自以為”“是”,即人們常常只能認出自己習慣或熟悉的事物,所以,這個或這群人的局限和狹隘也就在不自覺中融進了模型和程序中,因而,這種一多變換機制往往一開始就是先天不足。當然,機器學習也并不是一無是處,雖然做智能不行,但用來做計算機或自動化方向的應用應該還是不錯的!
如果說,學習的實質就是分類,那么人的學習就是獲得并創(chuàng)造分類的方法,而機器學習只是簡單地被使用了一些分類的方法而已。DARPA的 " 終身學習機器 "(Lifelong Learning Machines,L2M)項目本質上也許就是一個美麗的泡泡,吹一下就會忽高忽低地漂浮在空中,盡管陽光照耀之下也會五彩斑斕,但終究會破滅的吧!
機器常識:人工智能過不去的第三道坎
正如所有的藥一樣,所有的知識都是有范圍和前提的,失去了這些,知識的副作用就會涌現(xiàn)出來。知識只是常識的素材和原材料,機器只有“知”而沒有“識”,不能知行合一。知識不應依附于思想,而應同它合二為一;知識如果不能改變思想,使之變得完善,那就最好把它拋棄。擁有知識,卻毫無本事,不知如何使用——還不如什么都沒有學——那樣的知識是一把危險的劍,會給它的主人帶來麻煩和傷害。其中限制知識這些副作用發(fā)作的最有效途徑之一便是常識的形成,一般而言,常識往往是碎片化的,而態(tài)勢感知就是通過對這些零零碎碎常識狀態(tài)、趨勢的感覺、知覺形成某種非常識的認識和洞察。另外,常識是人類感知和理解世界的一種基本能力。典型的AI系統(tǒng)缺乏對物理世界運行的一般理解(如直觀物理學)、對人類動機和行為的基本理解(如直覺心理學)、像成年人一樣對普遍事物的認知。
DARPA正在繼續(xù)開發(fā)第二代人工智能技術及其軍事應用的同時,積極布局第三代人工智能發(fā)展,2018-2020財年,通過新設項目和延續(xù)項目,致力于第三代人工智能基礎研究,旨在通過機器學習和推理、自然語言理解、建模仿真、人機融合等方面的研究,突破人工智能基礎理論及核心技術。相關項目包括:“機器常識”,“終身學習機”,“可解釋的人工智能”,“可靠自主性”,“不同來源主動詮釋”,“自動知識提取”,“確保AI抗欺騙可靠性”,“自動知識提取”,“加速人工智能”,“基礎人工智能科學”,“機器通用感知”,“利用更少數(shù)據(jù)學習”,“以知識為導向的人工智能推理模式”,“高級建模仿真工具”,“復雜混合系統(tǒng)”,“人機交流”,“人機共生”等。除此,DARPA近期發(fā)布的人工智能基礎研究項目廣泛機構公告還包括:“開放世界奇異性的人工智能與學習科學”,“人機協(xié)作社會智能團隊”,“實時機器學習”等。
如果學問不能教會我們如何思想和行動,那真是莫大的遺憾!因為學問不是用來使沒有思想的人有思想,使看不見的人看見的。學問的職責不是為盲人提供視力,而是訓練和矯正視力,但視力本身必須是健康的,可以被訓練的。學問是良藥,但任何良藥都可能變質,保持時間的長短也要看藥瓶的質量。
俄羅斯人弗拉基米爾·沃沃斯基(Vladimir Voevodsky)的主要成就是:發(fā)展了新的代數(shù)簇上同調理論,從而為深刻理論數(shù)論與代數(shù)幾何提供了新的觀點。他的工作的特點是:能簡易靈活地處理高度抽象的概念,并將這些要領用于解決相當具體的數(shù)學問題。上同調概念最初來源于拓撲學,而拓撲學可以粗略地說成是“形狀的科學”,其中研究沃沃形狀的例子如球面、環(huán)面以及它們的高維類似物。拓撲學研究這些對象在連續(xù)變形(不允許撕裂)下保持不變的基本性質。通俗地說,上同調論提供了一種方法將拓撲對象分割成一些比較容易研究的片,上同調群則包含了如何將這些基本片裝配成原來對象的信息。代數(shù)幾何中研究的主要對象是代數(shù)簇,它們是多項式方程的公共解集。代數(shù)簇可以用諸如曲線或曲面之類的幾何對象來表示,但它們比那些可變形的拓撲對象更具“剛性”。
DARPA戰(zhàn)略技術辦公室(STO)2017年提出的“馬賽克戰(zhàn)”概念認為未來戰(zhàn)場是一個由低成本、低復雜系統(tǒng)組成的拼接圖,這些系統(tǒng)以多種方式連接在一起,可創(chuàng)建適合任何場景的理想交織效果。這個概念的一部分是“以新的令人驚訝的方式組合當前已有的武器”,重點是有人/無人編組、分解的能力,以及允許指揮官根據(jù)戰(zhàn)場情形無縫召喚海陸空能力,而不管是哪支部隊在提供作戰(zhàn)能力。
簡單地說,上面介紹的“馬賽克戰(zhàn)”和“機器常識”,都是對抗博弈人機環(huán)境系統(tǒng)的新型拓撲系統(tǒng),如同沃沃斯基創(chuàng)立的“主上同調”(motivic cohomology)理論。其中,真正厲害的不是那些基本的知識、條例和規(guī)則,而是應用這些基本的知識、條例和規(guī)則的在實踐中獲得普遍成功能力的人,比如以毛澤東(湖南一師)、粟裕(湖南二師)等為代表的一大批非軍事名校畢業(yè)的戰(zhàn)略家和軍事家最終以自己的常識打敗了黃埔軍系校長和將軍們的知識......
尾 聲
如果說“邏輯是符號串的等同或包含關系”,那么非邏輯則是非符號的等同或包含關系。人工智能處理一些邏輯問題較好,而人處理一些非邏輯問題稍優(yōu),人機融合則能處理邏輯與非邏輯的融合問題。
人工智能在對抗博弈中起重要作用需要幾個條件:首先是找到數(shù)學定量計算就能解決的部分,其次與人融合過程中使該AI部分找到適當?shù)臅r機、方式和作用,最后,人做對的事,AI“把事情做對”。
最近,美陸軍未來司令部司令約翰·默里上將和陸軍其他技術領導人強調“人類”必須最終作出重要決定并掌控“指揮和控制”系統(tǒng),同時還明確指出快速演化的人工智能武器系統(tǒng)應用可以讓陸軍指揮人員“率先看到、率先作出決定、率先采取行動”,當然由此能夠更快地摧毀敵人。(人工智能的數(shù)據(jù)處理能力會讓人類的決策速度呈現(xiàn)指數(shù)級的提高,即提速OODA環(huán)。)仔細想想,任何事物都不會無中生有,凡事都有苗頭和兆頭,人機融合就是能夠及時(恰如其分)地捕捉到這些零零碎碎的跡象和蛛絲馬跡,太快太慢都不好,“率先看到、率先做出決定、率先采取行動”,不一定由此能夠更快地摧毀敵人。有時,慢一點未必不是一個好的選擇,太快了也許更容易上當受騙吧!
目前,人智與AI的失調匹配是導致目前人工智能應用領域弱智的主要原因。人可以身在曹營心在漢,是非、01同在:既是又不是,疊加態(tài)。危機管理呢?常常是疊加勢:危險與機會共生,危中有機,機中有危,兩者糾纏在一起,如何因勢利導、順勢而為,則是人機融合智能中深度態(tài)勢感知的關鍵。
人機是非同構的,即本質是不同的兩者事物,一個受控實驗部分不可重復,一個受控實驗普遍可重復。人的智慧也是由受控與不可受控部分、可重復與不可重復部分構成的。色盲者認為是無色的,對他是真的,對其它主體卻是假的,若色盲者比正常人多,則正常人會是色盲嗎?
科學的缺點在于否認了個性化不受控不可重復的真實。所以基于這種科學性的基礎上必然會帶來一些缺陷。人,尤其是每個人都是天然的個性化不受控不可重復的主體,你不能說他就是不存在的。從這個角度看,人機融合的實質就是幫助科學完善它的不足和局限。
大數(shù)據(jù)的優(yōu)點是受控實驗普遍可重復性,如此一來可以尋找共性規(guī)律——按圖索驥;但是,這也是大數(shù)據(jù)的一個缺點,容易忽略新生事物——受控實驗不可重復部分的出現(xiàn),表現(xiàn)出刻舟求劍效應。有些受控實驗不可重復之真實性也是存在的,但這不在科學范圍內。以前是盲人摸象,現(xiàn)在是人機求劍。
無論多牛的數(shù)學,都是人去發(fā)現(xiàn)、發(fā)明,脫離了人,就沒有數(shù)學和人工智能,但是人都有缺點和死角,都有轉不過來的時候,所以人機融合才是未來智能的方向和大勢!人工智能過不去的這三道坎,人機融合智能可以過去,究其因,也還是沒有人過不去的坎!
商用機器人 Disinfection Robot 展廳機器人 智能垃圾站 輪式機器人底盤 迎賓機器人 移動機器人底盤 講解機器人 紫外線消毒機器人 大屏機器人 霧化消毒機器人 服務機器人底盤 智能送餐機器人 霧化消毒機 機器人OEM代工廠 消毒機器人排名 智能配送機器人 圖書館機器人 導引機器人 移動消毒機器人 導診機器人 迎賓接待機器人 前臺機器人 導覽機器人 酒店送物機器人 云跡科技潤機器人 云跡酒店機器人 智能導診機器人 |