OpenCog是一項以打造開源人工智慧框架為目標的開發專案,OpenCog Framework是一種應用於廣泛AGI研究的通用框架,其中OpenCog Prime是一種用於機器人和虛擬體化認知的架構,該架構定義了一組互動元件,用來產生與人類對等,從整體系統湧現而來的通用人工智慧(AGI),[3]本‧格策爾(Ben Goertzel)是其主要設計者。使用OpenCog進行的研究已發表在期刊上,也在包含年度人工智慧大會在內的各種會議和研討會上被介紹。 OpenCog是根據GNU Affero通用公共許可證的條款發行的。

OpenCog
原作者OpenCog Developers
開發者OpenCog Foundation
首次發布2008年1月21日,​16年前​(2008-01-21[1]
當前版本
  • 5.0.3(2016年6月28日)[2]
編輯維基數據鏈接
原始碼庫 編輯維基數據鏈接
程式語言C++PythonScheme
平台Linux
類型強人工智慧
許可協議 編輯維基數據鏈接
網站opencog.org

包括華為思科在內的50多家公司正在使用OpenCog。 [4]

起源

Novamente LLC在2008年發布專利「 Novamente認知引擎」(NCE),最初的OpenCog則是以其原始碼為基礎來開發的。PLN手冊有對NCE原始碼進行討論(請參閱下方的參考文獻)。人工智慧研究院(AGIRI)、Google夏日程式碼計畫、漢森機器人公司SingularityNET等單位也持續支援對OpenCog的開發。

元件

OpenCog包含:

  • 一組預定義的原子,它們編碼可滿足性模理論求解器,作為通用圖形査詢引擎的內建部分,用於執行圖形和超圖形模式匹配( 同構子圖探索 )。 這將結構化查詢語言( SQL )的概念推廣到通用圖形查詢的領域,是圖形查詢語言的延伸型式。
  • 「ECAN」是一種基於經濟學理論的注意力分配子系統。[5] 在控制推理和連結過程中所遇到的搜索可能性會產生組合爆炸,該子系統即用於控制組合爆炸。
  • 「機率推理引擎」是根據機率邏輯網路 (PLN)的實作。 目前實作方式是使用規則引擎將特定的邏輯推理規則(如假言推理 )與一些具體的數學公式合起來,為每個演繹推論分配機率和置信度。這個子系統可以被認為是使用改良過的貝葉斯推理形式的證明助手
  • 「元語義最佳化演化搜索」(Meta-Optimizing Semantic Evolutionary Search, or MOSES)是一種機率遺傳程式演化器[6] 用於探索完成任務的簡短Atomese程式。;這些可以被認為是執行一種決策樹學習 ,進而產生決策森林 ,或更精確地說是其歸納。
  • 自然語言生成系統[7]

應用領域

與其他認知架構類似,主要目的是建立虛擬人類,這是三維的虛擬化身。 目的是模仿諸如情緒、手勢和學習之類的行為。舉例來說,由於人類有情感,因此僅會對軟體中的情感模塊程式進行撰寫。如果能夠模擬人類的智慧,那就可以實現人工智慧。[10]

OpenCog計畫的自我描述提供了其他可能的應用程式,這些應用程式正朝著自然語言處理以及對狗的模擬方向發展。[11]

參見

外部連結

參考資料

  1. ^ OpenCog Release. 21 January 2008 [21 January 2008]. (原始內容存檔於2016-01-28). 
  2. ^ Release 5.0.3. 2016年6月28日 [2018年7月22日]. 
  3. ^ OpenCog: Open-Source Artificial General Intelligence for Virtual Worlds | CyberTech News. 2009-03-06 [2016-10-01]. (原始內容存檔於2009-03-06). 
  4. ^ Rogers, Stewart. SingularityNET talks collaborative AI as its token sale hits 400% oversubscription. venturebeat.com. VentureBeat. 2017-12-07 [2018-03-13]. (原始內容存檔於2017-12-07). 
  5. ^ Economic Attention Allocation. [2021-08-18]. (原始內容存檔於2011-10-13). 
  6. ^ MOSES. [2021-08-18]. (原始內容存檔於2010-08-26). 
  7. ^ Natural Language Generation.. [2021-08-18]. (原始內容存檔於2017-05-17). 
  8. ^ OpenPsi. [2021-08-18]. (原始內容存檔於2014-05-16). 
  9. ^ Archived copy. [2015-04-24]. (原始內容存檔於2018-03-19). 
  10. ^ David Burden; Maggi Savin-Baden. Virtual Humans: Today and Tomorrow. CRC Press. 24 January 2019 [25 August 2020]. ISBN 978-1-351-36526-0. (原始內容存檔於2021-04-30). 
  11. ^ Ben Goertzel; Cassio Pennachin; Nil Geisweiller. Engineering General Intelligence, Part 1: A Path to Advanced AGI via Embodied Learning and Cognitive Synergy. Springer. 8 July 2014: 23– [2021-08-18]. ISBN 978-94-6239-027-0. (原始內容存檔於2021-04-30).