今天的人工智能 (AI) 是有限的。它還有很長的路要走。
一些AI研究人員發現,計算機通過反復試驗學習的機器學習算法已經成為一種“神秘力量”。
不同類型的人工智能
人工智能 (AI) 的最新進展正在改善我們生活的許多方面。
人工智能分為三種類型:
狹義人工智能 (ANI),具有狹窄的能力范圍。
通用人工智能 (AGI),與人類能力相當。
人工超級智能 (ASI),比人類更有智能。
今天的人工智能有什么問題?
今天的人工智能主要由統計學習模型和算法驅動,稱為數據分析、機器學習、人工神經網絡或深度學習。它作為 IT 基礎設施(ML平臺、算法、數據、計算)和開發堆棧(從庫到語言、IDE、工作流和可視化)的組合來實現。
總之,其涉及:
一些應用數學、概率論和統計學
一些統計學習算法,邏輯回歸,線性回歸,決策樹和隨機森林
一些機器學習算法,有監督、無監督和強化
一些人工神經網絡、深度學習算法和模型,通過多層過濾輸入數據以預測和分類信息
一些優化(壓縮和量化)訓練的神經網絡模型
一些統計模式和推論,例如高通神經處理SDK,
一些編程語言,如 Python 和 R.
一些ML平臺、框架和運行時,例如PyTorch、ONNX、Apache MXNet、TensorFlow、Caffe2、CNTK、SciKit-Learn 和 Keras,
一些集成開發環境(IDE),如PyCharm、Microsoft VS Code、Jupyter、MATLAB等,
一些物理服務器、虛擬機、容器、專用硬件(如 GPU)、基于云的計算資源(包括虛擬機、容器和無服務器計算)。
當今使用的大多數 AI 應用都可以歸類為狹義 AI,稱為弱 AI。
它們都缺少通用人工智能和機器學習,這由三個關鍵的交互引擎定義:
世界模型 [表示、學習和推理] 機,或現實模擬機(世界超圖網絡)。
世界知識引擎(全球知識圖譜)
世界數據引擎(全球數據圖網絡)
通用AI和ML和DL應用/機器/系統的區別在于將世界理解為多個似是而非的世界狀態表示,其現實機器和全球知識引擎以及世界數據引擎。
它是General/Real AI Stack 最重要的組成部分,與其真實世界的數據引擎交互,并提供智能功能/能力:
處理關于世界的信息
估計/計算/學習世界模型的狀態
概括其數據元素、點、集合
指定其數據結構和類型
遷移其學習
將其內容語境化
形成/發現因果數據模式,如因果規律、規則和規律
推斷所有可能的相互作用、原因、影響、循環、系統和網絡中的因果關系
以不同的范圍和規模以及不同的概括和規范水平預測/回顧世界的狀態
有效地和高效地與世界互動,適應它,導航它并根據它的智能預測和處方操縱它的環境
事實上,它主要是依靠大數據計算、算法創新以及統計學習理論和聯結主義哲學的統計歸納推理機。
對于大多數人來說,它只是構建一個簡單的機器學習 (ML) 模型,經歷數據收集、管理、探索、特征工程、模型訓練、評估,最后部署。
EDA:探索性數據分析
AI Ops — 管理 AI 的端到端生命周期
今天的人工智能的能力來自“機器學習”,需要針對每個不同的現實世界場景配置和調整算法。這使得它非常需要人工操作,并且需要花費大量時間來監督其開發。這種手動過程也容易出錯、效率低下且難以管理。更不用說缺乏能夠配置和調整不同類型算法的專業知識。
配置、調整和模型選擇越來越自動化,谷歌、微軟、亞馬遜、IBM 等所有大型科技公司都推出了類似的AutoML平臺,使機器學習模型構建過程自動化。
AutoML涉及自動化構建基于機器學習算法的預測模型所需的任務。這些任務包括數據清理和預處理、特征工程、特征選擇、模型選擇和超參數調整,手動執行這些任務可能很乏味。
SAS4485-2020.pdf
所呈現的端到端 ML 管道由 3 個關鍵階段組成,同時缺少所有數據的來源,即世界本身:
自動化機器學習——概述
Big-Tech AI 的關鍵秘密是作為暗深度神經網絡的 Skin-Deep Machine Learning,它的模型需要通過大量標記數據和包含盡可能多的層的神經網絡架構進行訓練。
每個任務都需要其特殊的網絡架構:
用于回歸和分類的人工神經網絡 (ANN)
用于計算機視覺的卷積神經網絡 (CNN)
用于時間序列分析的遞歸神經網絡 (RNN)
用于特征提取的自組織映射
用于推薦系統的深度玻爾茲曼機
推薦系統的自動編碼器
ANN作為一種信息處理范式被引入,似乎是受到生物神經系統/大腦處理信息的方式的啟發。而這樣的人工神經網絡被表示為“通用函數逼近器”,它可以學習/計算各種激活函數。
神經網絡在測試階段通過特定的反向傳播和糾錯機制進行計算/學習。
試想一下,通過最小化錯誤,這些多層系統有望有一天自己學習和概念化想法。
人工神經網絡 (ANN) 簡介
總而言之,幾行R或Python代碼就足以實現機器智能,并且有大量在線資源和教程可以訓練準神經網絡,例如各種深度偽造網絡,操縱圖像-視頻-音頻-文本,對世界的了解為零,如生成對抗網絡、BigGAN、CycleGAN、StyleGAN、GauGAN、Artbreeder、DeOldify等。
他們創造和修改面孔、風景、通用圖像等,對它的全部內容了解為零。
使用循環一致的對抗網絡進行不成對的圖像到圖像的轉換,使2019年成為新人工智能時代的 14 種深度學習和機器學習用途。
有無數的數字工具和框架以它們自己的方式運行:
開放語言——Python是最受歡迎的,R和 Scala也在其中。
開放框架——Scikit-learn、XGBoost、TensorFlow等。
方法和技術——從回歸到最先進的GAN和RL的經典ML技術
提高生產力的能力——可視化建模、AutoAI 以幫助進行特征工程、算法選擇和超參數優化
開發工具——DataRobot、H2O、Watson Studio、Azure ML Studio、Sagemaker、Anaconda 等。
令人遺憾的是,數據科學家的工作環境:scikit-learn、R、SparkML、Jupyter、R、Python、XGboost、Hadoop、Spark、TensorFlow、Keras、PyTorch、Docker、Plumbr 等等,不勝枚舉。
現代 AI 堆棧和 AI 即服務消費模型
構建 AI 堆棧
冒充人工智能的,其實是虛假冒牌的人工智能。在最好的情況下,它是一種自動學習技術,ML/DL/NN 模式識別器,本質上是數學和統計性質的,無法憑直覺行事或對其環境建模,具有零智能、零學習和 零理解。
阻礙人工智能進步的問題
盡管有許多優點,人工智能并不完美。以下是阻礙人工智能進步的 8 個問題以及根本錯誤所在:
1、缺乏數據
人工智能需要大量數據集進行訓練,這些數據集應該具有包容性/公正性,并且質量良好。有時他們必須等待生成新數據。
2、耗時
人工智能需要足夠的時間讓算法學習和發展到足以以相當高的準確性和相關性實現其目的。它還需要大量資源才能發揮作用。這可能意味著對您的計算機能力有額外的要求。
3、結果解釋不力
另一個主要挑戰是準確解釋算法生成的結果的能力,還必須根據自己的目的仔細選擇算法。
4、高度易錯
人工智能是自治的,但極易出錯。假設使用足夠小的數據集訓練算法,使其不具有包容性。最終會得到來自有偏見的訓練集的有偏見的預測。在機器學習的情況下,這樣的失誤會引發一系列錯誤,這些錯誤可能會在很長一段時間內未被發現。當他們確實被注意到時,需要相當長的時間來識別問題的根源,甚至更長時間來糾正它。
5、倫理問題
相信數據和算法勝過我們自己的判斷的想法有其優點和缺點。顯然,我們從這些算法中受益,否則,我們一開始就不會使用它們。這些算法使我們能夠通過使用可用數據做出明智的判斷來自動化流程。然而,有時這意味著用算法取代某人的工作,這會帶來倫理后果。此外,如果出現問題,我們應該責怪誰?
6、缺乏技術資源
人工智能還是比較新的技術。從啟動代碼到流程的維護和監控,都需要機器學習專家來維護流程。人工智能和機器學習行業對市場來說仍然比較新鮮。以人力形式尋找足夠的資源也很困難。因此,缺乏可用于開發和管理機器學習科學物質的有才華的代表。數據研究人員通常需要混合空間洞察力,以及從頭到尾的數學、技術和科學知識。
7、基礎設施不足
人工智能需要大量的數據處理能力。繼承框架無法處理壓力下的責任和約束。應該檢查基礎架構是否可以處理人工智能中的問題.、如果不能,應該使用良好的硬件和適應性強的存儲來完全升級。
8、緩慢的結果和偏見
人工智能非常耗時。由于數據和要求過載,提供結果的時間比預期的要長。關注數據庫中的特定特征以概括結果在機器學習模型中很常見,這會導致偏差。
結論
人工智能已經接管了我們生活的許多方面。雖然不完美,但人工智能是一個不斷發展的領域,需求量很大。在沒有人為干預的情況下,它使用已經存在和處理過的數據提供實時結果。它通常通過開發數據驅動模型來幫助分析和評估大量數據。雖然人工智能有很多問題,這是一個不斷發展的領域。從醫學診斷、疫苗研發到先進的交易算法,人工智能已成為科學進步的關鍵。