技術奇點,或者簡稱"奇點",是未來主義中的一個多方面的概念,有幾個相互重疊、有時相互沖突的定義。Vernor Vinge在他的文章中給出了對奇點最恰當和最突出的定義, 即將到來的技術奇點是指超人智能在技術上被創造出來的時刻...
技術奇點,或者簡稱"奇點",是未來主義中的一個多方面的概念,有幾個相互重疊、有時相互沖突的定義。Vernor Vinge在他的文章中給出了對奇點最恰當和最突出的定義,
即將到來的技術奇點是指超人智能在技術上被創造出來的時刻。這些超人智能可以運用他們的智慧和專業知識來創造額外或更強大的超人智能,導致了雪球效應,其后果超出了我們目前的想象。
技術奇點這個術語是通過類比黑洞中心的奇點而產生的。"技術奇點"一詞是通過類比黑洞中心的奇點而產生的,當自然的力量變得如此強烈和不可預測,以至于我們計算物質在這些情況下的行為的能力降到了零。在奇點對話中,常與超人智慧的想法一起被提到加速技術變革的概念。一些人認為隨著技術的進步,它將最終形成一條漸近線,在視覺上類似于數學奇點。然而,奇點的概念與文奇的意圖不同;它指的是超人智能的出現,以及超人的思維速度(包括聰明,理解和創造概念、將數據轉化為理論、進行類比、具有創造性等等)盡管創造額外超人智能的超人智能確實會加速技術進步,但進步不會是無限的,從某種意義上說,一個數學奇點會暗示因為根據定義,超人智能比任何人都聰明,所以我們預測在給定的時間、物質或能量下他們能做什么的能力不大可能是準確的。一個超人智能也許能夠用廉價易得的組件制造出一臺運行正常的超級計算機,或者開發出只有原子力顯微鏡的成熟的納米技術。因為超人智能設計和制造技術設備的能力將迅速超過人類工程師的最大努力,超人的智慧很可能是人類最后一次需要創造的發明。由于他們超人的天賦和他們可以迅速發展的技術,從技術奇點中涌現出來的智能的行為可能導致我們整個物種的滅絕或解放,這取決于最強大的超人智能對人類的態度。牛津哲學家尼克博斯特羅姆,牛津人類未來研究所和世界跨人類組織的主任,認為超人智能對待人類的方式將取決于他們在創造的那一刻的最初動機。一種超人的智能在想要保持其善良的同時,隨著自我完善的螺旋式發展,自我創造出更善良(或更友善)的版本。其結果可能是一個天堂,在那里超人的智能解決了世界的問題,并為人類提供了自愿的智力提升。另一方面,一個惡意的或漠不關心的超人智能很可能產生更多同樣的結果,導致我們意外或蓄意的毀滅。基于這些原因,技術奇點可能是我們人類將要面對的最重要的里程碑奇點分析人士和倡導者提出了幾種通向超人智能的途徑。第一種是IA,即智能放大,通過神經外科手術、腦-機接口,甚至是腦-腦接口,將現有的人類轉化為非人類。另一種是人工智能,或者說人工智能,即創造一個動態認知系統,它在形成理論和操縱現實的能力上超越了人類。這些技術何時能達到產生超人智能所必需的復雜程度還不確定,但包括博斯特羅姆在內的各種專家,盡可能引用2010-2030年的時間范圍。因為奇點可能比許多人想象的要近,而且第一次超人智慧的最初動機可能決定我們人類物種的命運,一些哲學家活動家("奇點主義者")認為奇點不僅是一個推測和討論的話題,而且是一個在當今時代可以取得有意義進展的實際工程目標,2000年,Eliezer Yudkowsky成立了人工智能奇點研究所,專門致力于實現這一目標。
-
發表于 2020-09-07 22:34
- 閱讀 ( 2268 )
- 分類:科學教育