[go: nahoru, domu]

Przejdź do zawartości

Wikipedysta:Tom Ja/Historia SI

Z Wikipedii, wolnej encyklopedii

Historia sztucznej inteligencji (AI, SI) zaczęła się w starożytności, od mitów i historii o sztucznych istotach obdarzonych przez mistrzów rzemiosła inteligencją lub świadomością. Nasiona nowoczesnej Sztucznej Inteligencji zostały zasadzone przez klasycznych filozofów, którzy próbowali opisać proces ludzkiego myślenia jako mechaniczną manipulację symbolami. Kulminacją tej pracy było wynalezienie w latach 40. programowalnego komputera cyfrowego, maszyny opartej na abstrakcyjnej esencji rozumowania matematycznego. To urządzenie i stojące za nim idee zainspirowały naukowców do rozpoczęcia poważnej dyskusji na temat możliwości zbudowania elektronicznego mózgu.

Dziedzina badań nad Sztuczną Inteligencją została założona podczas warsztatów, które odbyły się na kampusie Dartmouth College latem 1956 r.[1] Ci, którzy wzięli w nich udział, stali się przez dziesięciolecia liderami badań nad Sztuczną Inteligencją. Wielu z nich przewidywało, że maszyna tak inteligentna jak człowiek będzie istniała w ciągu zaledwie jednego pokolenia i dostali miliony dolarów, w celu urzeczywistnienia tej wizji.

Okazało się, że rażąco nie docenili trudności projektu. W 1973 r., w odpowiedzi na krytykę ze strony Jamesa Lighthilla i ciągłą presję kongresu, rządy Stanów Zjednoczonych i Wielkiej Brytanii zaprzestały finansowania nieukierunkowanych badań nad sztuczną inteligencją, a kolejne trudne lata, które nastąpią, będą później znane jako "AI winter". Siedem lat później wizjonerska inicjatywa japońskiego rządu zainspirowała rządy i przemysł do zapewnienia AI miliardów dolarów, ale pod koniec lat 80-tych inwestorzy byli rozczarowani brakiem potrzebnej mocy komputera (sprzętu komputerowego) i ponownie wycofali finansowanie.

Inwestycje i zainteresowanie sztuczną inteligencją rozkwitły w pierwszych dekadach XXI wieku, kiedy to uczenie maszynowe zostało z powodzeniem zastosowane do wielu problemów w środowisku akademickim i w przemyśle ze względu na nowe metody, zastosowanie potężnego sprzętu komputerowego i gromadzenie ogromnych zbiorów danych.

AI w mitach i fikcji

[edytuj | edytuj kod]
 Główna strona: AI w mitach i fikcji.

W greckiej mitologii pojawiają się mechaniczni ludzie i sztuczne istoty, takie jak złote roboty Hefajstosa i Galatea Pigmaliona[2]. W średniowieczu pojawiły się wieści o tajemniczych mistycznych lub alchemicznych środkach umieszczania umysłu w materii, takich jak "Takwin" Dżabira Ibn Hajjana, homunkulus Paracelsusa i "Golem" Jehudy Löw ben Becalela[3]. W XIX w. idee dotyczące sztucznych ludzi i maszyn do myślenia rozwijały się w fikcji, tak jak w "Frankensteinie" Mary Shelley czy "R.U.R." (Rossumovi Univerzální Roboti) Karela Čapeka[4] oraz spekulacjach, takich jak "Darwin among the Machines" Samuela Butlera[5]. SI nadal pozostaje ważnym elementem science fiction w teraźniejszości.

Automatony

[edytuj | edytuj kod]
 Główna strona: Automaton.

Realistyczne humanoidalne automaty były budowane przez rzemieślników z każdej cywilizacji, w tym przez Yan Shi, Herona z Aleksandrii, Al-Dżazariego czy Wolfganga von Kempelena[6]. Najstarszymi znanymi automatonami były święte posągi starożytnego Egiptu i Grecji. Wierni wierzyli, że rzemieślnik nasycał te postacie bardzo prawdziwymi umysłami, zdolnymi do mądrości i emocji, Hermes Trismegistos napisał, że "przez odkrywanie prawdziwej natury bogów, człowiek był w stanie ją odtworzyć"[7] [a].

Rozumowanie formalne

[edytuj | edytuj kod]

//////////////////////////////PRZYPISY////////////////////////////////////////////////////// Sztuczna inteligencja opiera się na założeniu, że proces myślenia człowieka może zostać zmechanizowany. Badanie mechanicznego- lub "formalnego" rozumowania ma długą historię. Filozofowie chińscy, indyjscy i greccy opracowali ustrukturyzowane metody formalnej dedukcji w pierwszym tysiącleciu przed naszą erą. Ich idee rozwijali przez wieki filozofowie tacy jak Arystoteles (który podał formalną analizę sylogizmu), Euklides (którego Elementy były modelem rozumowania formalnego), al-Chuwarizmi (który opracował algebrę i stworzył nazwę "algorytm") oraz europejscy filozofowie scholastyczni, tacy jak William of Ockham i Jan Duns Szkot.

Hiszpański filozof Ramon Llull (1232-1315) opracował kilka maszyn logicznych poświęconych produkcji wiedzy za pomocą środków logicznych; Llull opisał swoje maszyny jako jednostki mechaniczne, które mogłyby łączyć podstawowe i niezaprzeczalne prawdy poprzez proste operacje logiczne, produkowane przez maszynę za pomocą znaczeń mechanicznych, w taki sposób, aby wyprodukować całą możliwą wiedzę. Praca Llulla miała ogromny wpływ na Gottfrieda Leibniza, który na nowo opracował swoje pomysły.

W XVII wieku, Leibniz, Thomas Hobbes i René Descartes badali możliwość, że wszelkie racjonalne myśli mogłyby być tak systematyczne jak algebra lub geometria. Hobbes sławnie napisał w Lewiatanie: "Reason is nothing but reckoning". Leibniz wyobrażał sobie uniwersalny język rozumowania (jego Characteristica universalis), który ograniczałby argumentację do obliczeń, tak że "nie byłoby potrzeby sporu między dwoma filozofami, bardziej niż między dwiema księgowymi. Wystarczyłoby bowiem, żeby wzięły ołówki w ręce do tabliczek i powiedziały sobie (z przyjaciółką jako świadkiem, jeśli mają taką wolę): Obliczmy". Filozofowie ci zaczęli formułować hipotezę systemu symboli fizycznych, która stała się wiodącą nadzieją badań nad Sztuczną Inteligencją.

W XX wieku badania logiki matematycznej zapewniły istotny przełom, dzięki któremu sztuczna inteligencja wydawała się prawdopodobna. Podwaliny dały takie prace, jak "The Laws of Thought" Boole'a i "Begriffsschrift" Frege'a. Opierając się na systemie Frege'a, Russell i Whitehead przedstawili formalne podejście do podstaw matematyki w swoim arcydziele, Principia Mathematica w 1913 roku. Zainspirowany sukcesem Russela, David Hilbert wezwał matematyków lat 20 i 30 XX wieku do odpowiedzi na podstawowe pytanie: "Czy wszystkie rozumowania matematyczne mogą zostać sformalizowane?" Na jego pytanie odpowiedzieli: Gödel swoim Twierdzeniem, Turing maszyną i Church Rachunkiem Lambda.

Ich odpowiedź była zaskakująca na dwa sposoby. Po pierwsze, okazały się one, że nie było, w rzeczywistości, ograniczenia do tego, co logika matematyczna może osiągnąć. Ale po drugie (i ważniejsze dla SI) ich praca sugerowała, że w tych granicach, każda forma rozumowania matematycznego może być zmechanizowana. Hipoteza Churcha-Turinga sugerowała, że urządzenie mechaniczne, wymienianie symboli tak prostych jak 0 i 1, mogłoby naśladować każdy możliwy proces matematycznej dedukcji. Kluczowym wglądem była maszyna Turinga - prosta konstrukcja teoretyczna, która uchwyciła istotę abstrakcyjnej manipulacji symbolami. Wynalazek ten zainspirował garstkę naukowców do rozpoczęcia dyskusji na temat możliwości myślących maszyn.

Informatyka

[edytuj | edytuj kod]

Maszyny liczące zostały zbudowane w starożytności i były doskonalone w całej historii przez wielu matematyków, w tym filozofa Gottfrieda Leibniza. Na początku XIX wieku Charles Babbage zaprojektował programowalny komputer (maszynę analityczna), chociaż go nie zbudował. Ada Lovelace spekulowała, że maszyna "może skomponować skomplikowane i naukowe utwory muzyczne o dowolnym stopniu złożoności i zakresie".

Pierwszymi nowoczesnymi komputerami były potężne maszyny do łamania kodów z czasów drugiej wojny światowej (takie jak Z3, ENIAC i Colossus). Dwie ostatnie z nich opierały się na teoretycznych podstawach stworzonych przez Alana Turinga i opracowanych przez Johna von Neumanna.

Narodziny sztucznej inteligencji 1952–1956

[edytuj | edytuj kod]

W latach 40. i 50. naukowcy z różnych dziedzin (matematyka, psychologia, inżynieria, ekonomia i nauki polityczne) rozpoczęli dyskusję na temat możliwości stworzenia sztucznego mózgu. Pole badań nad sztuczną inteligencją zostało ustalone jako dyscyplina akademicka w 1956 roku.

Cybernetyka i wczesne sieci neuronowe

[edytuj | edytuj kod]

Najwcześniejsze badania nad myślącymi maszynami zainspirowane zostały zbiegiem idei, które rozpowszechniły się pod koniec lat 30., 40. i na początku lat 50. XX wieku. Ostatnie badania w dziedzinie neurologii wykazały, że mózg jest elektryczną siecią neuronów, które przepuszczały impulsy w stylu "wszystko albo nic". Cybernetyka Norberta Wienera opisała kontrolę i stabilność w sieciach elektrycznych. Teoria informacji Claude'a Shannona opisała sygnały cyfrowe (tj. sygnały "wszystko albo nic"). Teoria obliczeń Alana Turinga wykazała, że każdą formę obliczeń można opisać cyfrowo. Bliski związek między tymi ideami sugerował, że możliwe jest skonstruowanie mózgu elektronicznego.

Przykłady pracy w tym stylu obejmują roboty takie jak żółwie W. Greya Waltera i Johns Hopkins Beast. Maszyny te nie wykorzystywały komputerów, elektroniki cyfrowej ani rozumowania symbolicznego; były całkowicie kontrolowane przez obwody analogowe.

Walter Pitts i Warren McCulloch przeanalizowali sieci wyidealizowanych sztucznych neuronów i pokazali, jak mogą one spełniać proste funkcje logiczne. Jako pierwsi opisali to, co później naukowcy nazwaliby siecią neuronową. Jednym ze studentów zainspirowanych przez Pittsa i McCullocha był młody Marvin Minsky, wówczas 24-letni absolwent. W 1951 r. (wraz z dziekanem Edmondem) zbudował pierwszą maszynę sieci neuronowej SNARC. Minsky miał zostać jednym z najważniejszych liderów i innowatorów w AI na następne 50 lat.

Test Turinga

[edytuj | edytuj kod]

W 1950 r. Alan Turing opublikował przełomowy artykuł, w którym spekulował na temat możliwości tworzenia maszyn, które myślą. Zauważył, że "myślenie" jest trudne do zdefiniowania i opracował swój słynny Test Turinga. Gdyby maszyna mogła prowadzić rozmowę (za pośrednictwem dalekopisu), która była nie do odróżnienia od rozmowy z człowiekiem, wtedy można było rozsądnie powiedzieć, że maszyna "myślała". Ta uproszczona wersja problemu pozwoliła Turinga przekonująco argumentować, że "myśląca maszyna" była co najmniej przekonująca, a praca odpowiedziała na wszystkie najczęstsze zastrzeżenia wobec tej propozycji. Test Turinga był pierwszą poważną propozycją w filozofii sztucznej inteligencji.

SI w grach

[edytuj | edytuj kod]

W 1951 roku, używając Ferranti Mark 1, maszyny Uniwersytetu w Manchesterze, Christopher Strachey napisał program do warcabów, a Dietrich Prinz napisał program do szachów. Program warcabowy Artura Samuela, opracowany w połowie lat 50-tych i na początku lat 60-tych, ostatecznie osiągnął wystarczające umiejętności, aby rzucić wyzwanie szanowanemu amatorowi. Sztuczna inteligencja w grach jest nadal wykorzystywana jako miara postępu w sztucznej inteligencji w całej jej historii.

Rozumowanie symboliczne i Logic Theorist

[edytuj | edytuj kod]

Kiedy dostęp do komputerów cyfrowych stał się możliwy w połowie lat pięćdziesiątych, kilku naukowców instynktownie uznało, że maszyna, która potrafiła manipulować liczbami, może również manipulować symbolami i że manipulacja symbolami może być istotą ludzkiej myśli. Było to nowe podejście do tworzenia maszyn do myślenia.

W 1955 roku Allen Newell i (przyszły laureat Nagrody Nobla) Herbert A. Simon stworzyli "Logic Theorist" (z pomocą J. C. Shaw). Program miał ostatecznie udowodnić 38 z pierwszych 52 twierdzeń z Principia Mathematica Russella i Whitehead'a i znaleźć nowe, bardziej eleganckie dowody dla niektórych z nich. Simon powiedział, że "rozwiązali oni szlachetny problem umysłu/ciała, wyjaśniając, w jaki sposób system złożony z materii może mieć właściwości umysłu" (Było to wczesne stwierdzenie filozoficznego stanowiska, które John Searle nazwał później "Silną SI": że maszyny mogą zawierać umysły, tak jak czynią to ciała ludzkie.

Dartmouth Conference 1956: narodziny AI

[edytuj | edytuj kod]

Konferencja w Dartmouth w 1956 roku została zorganizowana przez Marvina Minsky'ego, Johna McCarthy'ego, Claudego Shannona i Nathana Rochestera. Propozycja konferencji zawierała to stwierdzenie: "Każdy aspekt uczenia się lub każda inna cecha inteligencji może być tak precyzyjnie opisana, że można stworzyć maszynę do jej symulacji". Wśród uczestników znaleźli się Ray Solomonoff, Oliver Selfridge, Trenchard More, Arthur Samuel, Allen Newell i Herbert A. Simon, którzy w pierwszych dziesięcioleciach badań nad Sztuczną Inteligencją stworzyli ważne programy. Na konferencji Newell i Simon zadebiutowali "Logic Theorist", a McCarthy przekonał uczestników do zaakceptowania "Sztucznej inteligencji" jako nazwy dziedziny. Konferencja w Dartmouth w 1956 r. była momentem, w którym AI zyskała nazwę, misję, swój pierwszy sukces i swoich głównych graczy i jest powszechnie uważana za narodziny AI. Termin "sztuczna inteligencja" został wybrany przez McCarthy'ego, aby uniknąć skojarzeń z cybernetyką i powiązań z wpływowym cybernetykiem Norbertem Wienerem.

Złote lata 1956–1974

[edytuj | edytuj kod]

Lata po konferencji w Dartmouth były erą odkryć na nowym terenie. Programy opracowane w tym czasie były dla większości ludzi "zdumiewające": komputery rozwiązywały problemy algebraiczne, dowodziły twierdzenia dotyczące geometrii i uczyły się mówić po angielsku. Niewielu wówczas wierzyło, że takie "inteligentne" zachowanie maszyn było w ogóle możliwe. Naukowcy wyrażali intensywny optymizm zarówno w artykułach, jak i na osobności, przewidując, że w pełni inteligentna maszyna zostanie zbudowana za niecałe 20 lat. Agencje rządowe, takie jak DARPA, wlewały pieniądze w nową dziedzinę.

Było wiele udanych programów i nowych kierunków w późnych latach 50-tych i 60-tych. Wśród najbardziej wpływowych były:

Rozumowanie jako przeszukiwanie

[edytuj | edytuj kod]

Wiele wczesnych programów Sztucznej Inteligencji wykorzystywało ten sam podstawowy algorytm. Aby osiągnąć jakiś cel (np. wygrać grę lub udowodnić twierdzenie), postępowały one krok po kroku w jego kierunku (wykonując ruch lub dedukcję) tak, jakby przeszukiwały labirynt, cofając się, gdy tylko osiągnęły ślepy zaułek. Ten paradygmat został nazwany "rozumowanie jako przeszukiwanie" ("reasoning as search").

Główną trudnością było to, że dla wielu problemów liczba możliwych ścieżek przez "labirynt" była po prostu astronomiczna (sytuacja znana jako "kombinatoryczna eksplozja"). Naukowcy ograniczali przestrzeń poszukiwawczą, stosując heurystyki lub "Rule of thumb", które eliminowałyby te ścieżki, które prawdopodobnie nie doprowadzą do rozwiązania.

Newell i Simon próbowali uchwycić ogólną wersję tego algorytmu w programie "General Problem Solver". Inne programy "przeszukujące" były w stanie wykonać imponujące zadania, takie jak rozwiązywanie problemów w geometrii i algebry, takie jak Geometry Theorem Prover (1958) Herberta Gelerntera i SAINT, napisane przez Jamesa Slagle'a (1961). Inne programy przeszukiwały cele i podcele w celu zaplanowania działań, jak np. system STRIPS opracowany w Stanford, aby kontrolować zachowanie robota Shakeya.

Język naturalny

[edytuj | edytuj kod]

Ważnym celem badań nad sztuczną inteligencją jest umożliwienie komputerom komunikacji w językach naturalnych, takich jak angielski. Wczesnym sukcesem był program STUDENT Daniela Bobrowa, który mógł rozwiązać problemy związane z algebrą szkolną.

Sieć semantyczna reprezentuje pojęcia (np. "dom", "drzwi") jako węzły i relacje między pojęciami (np. "ma") jako powiązania między węzłami. Pierwszy program AI wykorzystujący sieć semantyczną napisał Ross Quillian, a najbardziej udaną (i kontrowersyjną) wersją była konceptualna teoria zależności Rogera Schanka.

ELIZA Josepha Weizenbauma mogła prowadzić rozmowy, które były tak realistyczne, że użytkownicy od czasu do czasu nabierali się na myślenie, że komunikują się z istotą ludzką, a nie z programem. Ale tak naprawdę, ELIZA nie miała pojęcia, o czym mówi. Dawała gotową odpowiedź lub powtarzała to, co zostało jej powiedziane, przetwarzając odpowiedź stosując kilka zasad gramatycznych. ELIZA była pierwszym chatbotem.

Mikroświaty

[edytuj | edytuj kod]

Pod koniec lat 60. Marvin Minsky i Seymour Papert z Laboratorium SI (MIT) zaproponowali, aby badania nad SI skupiono na sztucznie prostych sytuacjach znanych jako mikroświaty. Wskazali oni, że w naukach, które odniosły sukces, takich jak fizyka, podstawowe zasady były często najlepiej rozumiane przy użyciu uproszczonych modeli, takich jak samoloty nie generujące tarcia lub idealnie sztywne ciała. Wiele badań skupiło się na "świecie bloków", który składa się z kolorowych bloków o różnych kształtach i rozmiarach ułożonych na płaskiej powierzchni.

Ten paradygmat doprowadził do innowacyjnej pracy nad maszynową wizją Geralda Sussmana (który kierował zespołem), Adolfo Guzmana, Davida Waltza (który wymyślił "propagację ograniczeń"), a zwłaszcza Patricka Winstona. W tym samym czasie Minsky i Papert zbudowali ramię robota, które mogło ustawiać bloki w stosy, ożywiając świat bloków. Ukoronowaniem programu mikroświata był program SHRDLU Terry'ego Winograda. Potrafił on komunikować się w zwykłych angielskich zdaniach, planować operacje i wykonywać je.

Optymizm

[edytuj | edytuj kod]

Pierwsza generacja badaczy SI dokonała następujących przewidywań dotyczących ich pracy:

  • 1958, H. A. Simon i Allen Newell: "W ciągu dziesięciu lat komputer cyfrowy będzie mistrzem świata w szachach", a "w ciągu dziesięciu lat komputer cyfrowy odkryje i udowodni ważne nowe twierdzenie matematyczne".
  • 1965, H. A. Simon: "Maszyny będą w stanie, w ciągu dwudziestu lat, wykonać każdą pracę, jaką człowiek może wykonać".
  • 1967, Marvin Minsky: "W ciągu pokolenia [...] problem tworzenia "sztucznej inteligencji" zostanie zasadniczo rozwiązany".
  • 1970, Marvin Minsky (w Life Magazine): "Za trzy do ośmiu lat będziemy mieli maszynę z ogólną inteligencją przeciętnego człowieka".

Pieniądze

[edytuj | edytuj kod]

W czerwcu 1963 r. MIT otrzymał dotację w wysokości 2,2 mln USD od nowo utworzonej Defense Advanced Research Projects Agency (później znanej jako DARPA). Pieniądze te zostały wykorzystane na sfinansowanie projektu MAC, który podporządkował "Grupę AI" założoną przez Minsky'ego i McCarthy'ego pięć lat wcześniej. DARPA nadal przekazywała trzy miliony dolarów rocznie do lat 70. DARPA przyznawała podobne dotacje do programu Newella i Simona w CMU oraz do projektu Stanford AI (założonego przez Johna McCarthy'ego w 1963 r. Kolejne ważne laboratorium AI zostało założone na Uniwersytecie w Edynburgu przez Donalda Michiego w 1965 r. Te cztery instytucje pozostały głównymi ośrodkami badań (i finansowania) nad AI w środowisku akademickim przez wiele lat.

Pieniądze zostały zaoferowane z małą liczbą ograniczeń: J. C. R. Licklider, ówczesny dyrektor DARPA, uważał, że jego organizacja powinna "finansować ludzi, a nie projekty" i pozwalał badaczom na podążanie w dowolnych kierunkach. Stworzyło to wolną atmosferę w MIT, która dała początek kulturze hakerów, ale to podejście nie przetrwało.

Robotyka

[edytuj | edytuj kod]

W Japonii Uniwersytet Waseda zainicjował projekt WABOT w 1967 roku, a w 1972 roku ukończył WABOT-1, pierwszy na świecie inteligentny robot humanoidalny lub android. System kontroli jego kończyn pozwalał mu chodzić kończynami dolnymi, chwytać i transportować przedmioty rękami przy użyciu czujników dotykowych. System wizyjny pozwalał mierzyć odległości i kierunki do obiektów za pomocą zewnętrznych receptorów, sztucznych oczu i uszu. Jego system konwersacji pozwalał mu komunikować się z człowiekiem w języku japońskim przy użyciu sztucznych ust.

Pierwsza zima SI 1974–1980

[edytuj | edytuj kod]

W latach 70. ubiegłego wieku SI była przedmiotem krytyki i niepowodzeń finansowych. Badacze SI nie potrafili docenić trudności problemów, z którymi się borykali. Ich olbrzymi optymizm wzbudził niemożliwie wysokie oczekiwania, a gdy obiecywane wyniki się nie sprawdziły, finansowanie SI zniknęło. Jednocześnie pole koneksjonizmu (lub sieci neuronowych) zostało niemal całkowicie zamknięte na 10 lat przez druzgocącą krytykę perceptronów Marvina Minsky'ego. Pomimo trudności z publicznym postrzeganiem SI pod koniec lat 70., badano nowe pomysły w programowaniu logicznym, rozumowaniu zdroworozsądkowym i wielu innych obszarach.

Problemy

[edytuj | edytuj kod]

Na początku lat siedemdziesiątych możliwości programów AI były ograniczone. Nawet najbardziej imponujące programy mogły poradzić sobie jedynie z trywialnymi wersjami problemów, które miały rozwiązać; wszystkie programy były w pewnym sensie "zabawkami". Naukowcy zajmujący się SI zaczęli napotykać na kilka podstawowych ograniczeń, których nie można było pokonać w latach 70. Chociaż niektóre z tych ograniczeń zostałyby przezwyciężone w późniejszych dekadach, inne nadal utrudniają działanie do dziś.

  • Ograniczona moc komputerów: Nie było wystarczająco dużej pamięci lub szybkości przetwarzania, aby osiągnąć cokolwiek naprawdę użytecznego. Na przykład, udana praca Rossa Quilliana nad językiem naturalnym została zademonstrowana przy użyciu słownictwa liczącego tylko dwadzieścia słów, ponieważ tylko tyle mieściło się w pamięci. Hans Moravec argumentował w 1976 r., że komputery były jeszcze miliony razy za słabe, aby wykazać się inteligencją. Zasugerował analogię: sztuczna inteligencja wymaga mocy komputera w taki sam sposób, w jaki samoloty potrzebują koni mechanicznych. Poniżej pewnego progu jest to niemożliwe, ale wraz ze wzrostem mocy może stać się łatwe. Jeśli chodzi o widzenie komputerowe, Moravec oszacował, że proste dopasowanie do możliwości wykrywania krawędzi i ruchu siatkówki ludzkiej w czasie rzeczywistym wymagałoby komputera ogólnego przeznaczenia zdolnego do 109 operacji/sekundę (1000 MIPS). W 2011 r. praktyczne komputerowe aplikacje wizyjne wymagają od 10.000 do 1.000.000 MIPS. Dla porównania, najszybszy superkomputer w 1976 roku, Cray-1 (w sprzedaży detalicznej na poziomie od 5 do 8 milionów dolarów), był w stanie obsłużyć jedynie około 80 do 130 MIPS, a typowy komputer stacjonarny w tamtym czasie osiągał mniej niż 1 MIPS.
  • Intractability (Niemożliwość) i eksplozja kombinatoryczna. W 1972 r. Richard Karp (wspierając się na twierdzeniu Stephena Cooka z 1971 r.) pokazał, że istnieje wiele problemów, które prawdopodobnie mogą być rozwiązane tylko w czasie wykładniczym. Znalezienie optymalnych rozwiązań tych problemów wymaga niewyobrażalnej ilości czasu komputerowego, z wyjątkiem sytuacji, gdy problemy są trywialne. Oznaczało to prawie na pewno, że wiele z "zabawkowych" rozwiązań stosowanych przez AI prawdopodobnie nigdy by się nie rozwinęło w użyteczne systemy.
  • Zdroworozsądkowa wiedza i rozumowanie. Wiele ważnych aplikacji sztucznej inteligencji, takich jak wizja czy język naturalny, wymaga ogromnych ilości informacji o świecie: program musi mieć pojęcie, na co może patrzeć lub o czym mówi. Wymaga to, aby program wiedział większość tych samych rzeczy o świecie, co dziecko. Naukowcy szybko odkryli, że jest to ogromna ilość informacji. Nikt w 1970 roku nie był w stanie zbudować tak dużej bazy danych i nikt nie wiedział, jak program może nauczyć się tak wielu informacji.
  • Paradoks Moraveca: udowodnienie twierdzeń i rozwiązywanie problemów z geometrią jest stosunkowo łatwe dla komputerów, ale rzekomo proste zadanie, takie jak rozpoznanie twarzy lub przejście przez pokój bez wpadania na cokolwiek, jest niezwykle trudne. Pomaga to wyjaśnić, dlaczego badania nad wizją i robotyką osiągnęły tak niewielki postęp w połowie lat 70.
  • Frame problem i qualification problem Naukowcy SI (jak John McCarthy), którzy użyli logiki odkryli, że nie mogą reprezentować zwykłych dedukcji, które wiązały się z planowaniem lub domyślnym rozumowaniem bez wprowadzania zmian w samej strukturze logiki. Opracowali nową logikę (taką jak logika niemonotoniczna i logika modalna), aby spróbować rozwiązać problemy.

Koniec finansowania

[edytuj | edytuj kod]
 Zobacz też: Zima SI.

Agencje, które finansowały badania nad SI (takie jak rząd brytyjski, DARPA i NRC), były sfrustrowane brakiem postępów i ostatecznie odcięły prawie wszystkie środki na nieukierunkowane badania nad SI. Wzorzec rozpoczął się już w 1966 roku, kiedy pojawił się raport ALPAC, który krytykował wysiłki w zakresie tłumaczenia maszynowego. Po wydaniu 20 milionów dolarów, NRC zakończyło wsparcie. W 1973 r., raport Lighthill na temat stanu badań nad SI w Anglii skrytykował całkowitą porażkę SI w osiągnięciu jej "wspaniałych celów" i doprowadził do demontażu badań nad SI w tym kraju. W raporcie wspomniano o problemie eksplozji kombinatorycznej jako o przyczynie upadku SI. DARPA była rozczarowana naukowcami pracującymi nad programem badań nad rozumieniem mowy w CMU i anulowała roczną dotację w wysokości trzech milionów dolarów. Do 1974 r. trudno było znaleźć finansowanie projektów AI.

Hans Moravec zrzucił winę za kryzys na nierealne prognozy swoich kolegów. "Wielu badaczy wpadło w sieć coraz bardziej przesadzonych badań". Ponadto od czasu przyjęcia poprawki Mansfielda w 1969 roku, DARPA znajdowała się pod rosnącą presją finansowania "bezpośrednich badań ukierunkowanych na misję, a nie podstawowych, nieukierunkowanych badań". Finansowanie kreatywnych, swobodnych badań, które miały miejsce w latach 60-tych, nie pochodziło od DARPA. Zamiast tego pieniądze były przeznaczone na konkretne projekty o jasno określonych celach, takie jak autonomiczne czołgi i systemy zarządzania walką.

Krytyka akademicka

[edytuj | edytuj kod]

Kilku filozofów czuło silny sprzeciw wobec twierdzeń naukowców z branży informatycznej. Jednym z najwcześniejszych był John Lucas, który stwierdził, że Twierdzenie Gödla wykazało, że system formalny (taki jak program komputerowy) może nigdy nie dowieść prawdziwości niektórych stwierdzeń, podczas gdy człowiek może. Hubert Dreyfus ośmieszył złamane obietnice z lat 60. i skrytykował założenia AI, twierdząc, że rozumowanie ludzkie w rzeczywistości wiąże się z bardzo małym "przetwarzaniem symboli" i dużą ilością ucieleśnionego (embodied), instynktownego, nieświadomego "know-how". Argument Johna Searle'a dotyczący chińskiego pokoju, przedstawiony w 1980 r., próbował wykazać, że nie można powiedzieć, że program „rozumie” używane przez niego symbole (jakość nazywana "intencjonalnością"). Jeśli symbole nie mają żadnego znaczenia dla maszyny, jak twierdził Searle, to maszyna nie może być opisana jako "myślenie".

Krytyka ta nie była traktowana poważnie przez badaczy SI, często dlatego, że wydawała się tak odległa od celu. Problemy takie jak Zdroworozsądkowa wiedza i Intractability (Niemożliwość) wydawały się znacznie bardziej bezpośrednie i poważne. Nie było jasne, jaka jest różnica między "wiedzą" jak i "intencjonalnością" w stosunku do rzeczywistego programu komputerowego. Minsky powiedział o Dreyfusie i Searle, że "źle rozumieją i powinni być ignorowani". Dreyfus, który uczył w MIT, został potraktowany ozięble: później powiedział, że badacze SI "ośmielili się nie być widziani na lunchu ze mną". Joseph Weizenbaum, autor ELIZA, czuł, że traktowanie Dreyfusa przez jego kolegów było nieprofesjonalne i dziecinne. Chociaż był otwartym krytykiem pozycji Dreyfusa, „wyjaśnił, że nie jest to sposób traktowania człowieka”.

Weizenbaum zaczął mieć poważne wątpliwości etyczne dotyczące SI, kiedy Kenneth Colby napisał "program komputerowy, który może prowadzić dialog psychoterapeutyczny" oparty na ELIZA. Weizenbaum był zaniepokojony, że Colby postrzegał bezmyślny program jako poważne narzędzie terapeutyczne. Rozpoczął się spór, a sytuacji nie pomogła sytuacja, kiedy Colby nie uznał Weizenbauma za jego wkład w program. W 1976 roku Weizenbaum opublikował Computer Power and Human Reason, który twierdził, że nadużywanie sztucznej inteligencji może zdewaluować ludzkie życie.

Perceptrony i atak na koneksjonizm

[edytuj | edytuj kod]

Perceptron był formą sieci neuronowej wprowadzonej w 1958 roku przez Franka Rosenblatta, który był kolegą szkolnym Marvina Minsky'ego w Wyższej Szkole Nauk w Bronksie. Jak większość badaczy SI, był optymistą co do ich mocy, przewidując, że "perceptron może w końcu być w stanie uczyć się, podejmować decyzje i tłumaczyć języki". Aktywny program badawczy w zakresie paradygmatu był realizowany przez całe lata sześćdziesiąte, ale nagle zatrzymał się wraz z publikacją książki "Perceptrony" Minsky'ego i Paperta z 1969 roku. Sugerowała ona, że istnieją poważne ograniczenia tego, co mogą robić perceptrony i że przewidywania Franka Rosenblatta były rażąco przesadzone. Efekt książki był druzgocący: praktycznie żadne badania w ogóle nie zostały przeprowadzone w ciągu 10 lat w dzieidzinie koneksjonizmu. W końcu nowe pokolenie badaczy ożywiło to pole, które następnie stało się istotną i użyteczną częścią sztucznej inteligencji. Rosenblatt nie dożył tego, ponieważ zginął w wypadku na łodzi wkrótce po ukazaniu się książki.

Wykorzystanie logiki i wnioskowania symbolicznego

[edytuj | edytuj kod]

Logika została wprowadzona do badań nad Sztuczną Inteligencją już w 1958 r. przez Johna McCarthy'ego w jego propozycji Advice Taker. W 1963 r. J. Alan Robinson odkrył prostą metodę implementacji dedukcji na komputerach, algorytmu rezolucji i unifikacji. Jednakże, proste wdrożenia, jak te próbowane przez McCarthy'ego i jego uczniów pod koniec lat 60. były szczególnie trudne: programy wymagały astronomicznej liczby kroków w celu udowodnienia prostych twierdzenń. Bardziej owocne podejście do logiki zostało opracowane w latach 70. przez Roberta Kowalskiego na Uniwersytecie w Edynburgu i wkrótce doprowadziło to do współpracy z badaczami francuskimi Alainem Colmerauerem i Philippe Rousselem, którzy stworzyli udany język programowania logicznego Prolog. Prolog wykorzystuje podzbiór logiki (klauzule Horna, ściśle związane z "regułami" i "zasadami produkcji"), które pozwalają na łatwe w obróbce obliczenia. Zasady nadal miały znaczenie stanowiąc podstawę dla systemów ekspertowych Edwarda Feigenbauma i mając wpływ na kontynuowanie prac Allena Newella i Herberta A. Simona, które doprowadziły do powstania Soara i ich ujednoliconej teorii poznania.

Krytycy logicznego podejścia zauważyli, podobnie jak Dreyfus, że ludzie rzadko używali logiki, kiedy rozwiązywali problemy. Eksperymenty takich psychologów jak Peter Wason, Eleanor Rosch, Amos Tversky, Daniel Kahneman i innych dostarczyły dowodów. McCarthy odpowiedział, że to, co robią ludzie, jest nieistotne. Twierdził, że naprawdę potrzebne są maszyny, które mogą rozwiązywać problemy, a nie maszyny, które myślą tak, jak ludzie.

Inne podejście: ramki i skrypty

[edytuj | edytuj kod]

Wśród krytyków podejścia McCarthy'ego znaleźli się jego koledzy z całego kraju w MIT. Marvin Minsky, Seymour Papert i Roger Schank próbowali rozwiązać takie problemy jak "zrozumienie historii" i "rozpoznawanie obiektów", które wymagały maszyny myślącej jak człowiek. Aby móc używać zwykłych pojęć, takich jak "krzesło" czy "restauracja", musieli przyjąć te same nielogiczne założenia, które zwykle były przyjmowane przez ludzi. Niestety takie nieprecyzyjne pojęcia jak te są trudne do przedstawienia w logice. Gerald Sussman zauważył, że "używanie precyzyjnego języka do opisywania zasadniczo nieprecyzyjnych pojęć nie czyni ich bardziej precyzyjnymi". Schank określił ich "antylogiczne" podejście jako "niechlujne", w przeciwieństwie do "schludnych" paradygmatów używanych przez McCarthy'ego, Kowalskiego, Feigenbauma, Newella i Simona.

W 1975 roku Minsky zauważył, że wielu jego kolegów "niechlujnych" badaczy używa tego samego rodzaju narzędzia: ramy, która uchwyci wszystkie nasze zdroworozsądkowe założenia dotyczące czegoś. Na przykład, jeśli używamy pojęcia ptaka, istnieje konstelacja faktów, które natychmiast przychodzą nam na myśl: możemy założyć, że leci, je robaki i tak dalej. Wiemy, że te fakty nie zawsze są prawdziwe i że wnioski z tych faktów nie będą "logiczne", ale te ustrukturyzowane zestawy założeń są częścią kontekstu wszystkiego, co mówimy i myślimy. Nazwał te struktury "ramami". Schank wykorzystał wersję ramek, które nazwał "scenariuszami", aby skutecznie odpowiadać na pytania dotyczące opowiadań w języku angielskim. Wiele lat później programowanie obiektowe przyjęłoby podstawową ideę "dziedziczenia" z badań AI nad ramkami.

Boom 1980–1987

[edytuj | edytuj kod]

W latach 80. XX wieku korporacje na całym świecie przyjęły formę programu SI zwanego "systemami ekspertowymi", a wiedza stała się głównym celem badań nad SI. W tych samych latach japoński rząd agresywnie finansował SI za pomocą projektu komputerowego piątej generacji. Innym zachęcającym wydarzeniem na początku lat 80. było odrodzenie koneksjonizmu w pracach Johna Hopfielda i Davida Rumelharta.

Wzrost systemów ekspertowych

[edytuj | edytuj kod]

System ekspertowy to program odpowiadający na pytania lub rozwiązujący problemy dotyczące konkretnej dziedziny wiedzy, wykorzystujący logiczne zasady, które wywodzą się z wiedzy ekspertów. Najwcześniejsze przykłady zostały opracowane przez Edwarda Feigenbauma i jego uczniów. Dendral, zapoczątkowany w 1965 roku, identyfikował związki z odczytów spektrometru. MYCIN, opracowany w 1972 roku, diagnozował zakaźne choroby krwi. Wykazali oni wykonalność tego podejścia.

Systemy ekspertowe ograniczyły się do niewielkiej dziedziny wiedzy specjalistycznej (unikając w ten sposób problemu wiedzy zdroworozsądkowej), a ich prosta konstrukcja ułatwiała stosunkowo łatwe budowanie i modyfikowanie programów po ich wprowadzeniu. Podsumowując, programy okazały się użyteczne: coś, czego AI nie była w stanie osiągnąć do tej pory.

W 1980 r. w CMU dla Digital Equipment Corporation został ukończony system ekspertowy XCON. Był to ogromny sukces: firma zaoszczędzała 40 milionów dolarów rocznie do 1986 r. Korporacje na całym świecie zaczęły opracowywać i wdrażać systemy ekspertowe, a w 1985 r. wydały ponad miliard dolarów na SI. Powstała branża, która je wspierała, w tym firmy produkujące sprzęt, takie jak Symbolics i Lisp Machines oraz firmy produkujące oprogramowanie, takie jak IntelliCorp i Aion.

Rewolucja wiedzy

[edytuj | edytuj kod]

Siła systemów ekspertowych wynikała z wiedzy eksperckiej, którą zawierały. Były one częścią nowego kierunku badań nad Sztuczną Inteligencją, które zyskały na popularności w latach 70-tych. "Naukowcy zajmujący się sztuczną inteligencją zaczęli podejrzewać niechętnie, ponieważ naruszyło to naukowy kanon skąpstwa - że inteligencja może bardzo dobrze opierać się na zdolności do wykorzystywania dużych ilości różnorodnej wiedzy na różne sposoby", napisała Pamela McCorduck. "Wielką lekcją z lat 70. było to, że inteligentne zachowanie zależało w dużym stopniu od radzenia sobie z wiedzą, czasem dość szczegółową, z dziedziny, w której dane zadanie leży". Systemy oparte na wiedzy i inżynieria wiedzy stały się głównym przedmiotem badań nad Sztuczną Inteligencją w latach 80.

Lata 80-te to także narodziny Cyc, pierwszej próby bezpośredniego wykorzystania zdroworozsądkowego problemu wiedzy, poprzez stworzenie ogromnej bazy danych, która zawierałaby wszystkie prozaiczne fakty, które zna przeciętny człowiek. Douglas Lenat, który rozpoczął i prowadził projekt, twierdził, że nie ma skrótu - jedynym sposobem, aby maszyny poznały znaczenie ludzkich koncepcji, jest nauczanie ich, po kolei, ręcznie. Projektu nie spodziewano się zakończyć przez wiele dziesięcioleci.

Programy do gry w szachy HiTech i Deep Thought pokonały mistrzów szachów w 1989 roku. Oba zostały opracowane przez Carnegie Mellon University; Rozwój Deep Thought utorował drogę do Deep Blue.

Powrót finansowania: projekt the Fifth Generation

[edytuj | edytuj kod]

W 1981 roku japońskie Ministerstwo Handlu Międzynarodowego i Przemysłu przeznaczyło 850 milionów dolarów na projekt komputerowy piątej generacji. Ich celem było pisanie programów i budowanie maszyn, które mogłyby prowadzić rozmowy, tłumaczyć języki, interpretować obrazy i rozumować jak ludzie. Wbrew wyrzutom niechlujnym, wybrali Prolog jako podstawowy język komputerowy dla projektu.

Inne kraje zareagowały nowymi własnymi programami. Wielka Brytania rozpoczęła projekt Alvey o wartości 350 milionów funtów. Konsorcjum firm amerykańskich utworzyło Microelectronics and Computer Technology Corporation w celu sfinansowania dużych projektów w dziedzinie IT i technologii informacyjnych. DARPA również odpowiedziała, zakładając Strategic Computing Initiative i potrajając swoje inwestycje w AI w latach 1984-1988.

Odrodzenie koneksjonizmu

[edytuj | edytuj kod]

W 1982 roku fizyk John Hopfield udowodnił, że forma sieci neuronowej (obecnie nazywana "siecią Hopfielda") może uczyć się i przetwarzać informacje w zupełnie nowy sposób. Mniej więcej w tym samym czasie Geoffrey Hinton i David Rumelhart spopularyzowali metodę szkolenia sieci neuronowych zwaną "propagacją wsteczną", znaną również jako tryb odwrotnego automatycznego różnicowania opublikowany przez Seppo Linnainmaa (1970) i zastosowaną do sieci neuronowych przez Paula Werbosa. Te dwa odkrycia przyczyniły się do ożywienia dziedziny koneksjonizmu.

Nowa dziedzina została ujednolicona i zainspirowana pojawieniem się Parallel Distributed Processing w 1986 roku - dwutomowej kolekcji prac redagowanych przez Rumelharta i psychologa Jamesa McClellanda. Sieci neuronowe odniosły sukces komercyjny w latach 90-tych, kiedy to zaczęto je wykorzystywać w takich celach jak optyczne rozpoznawanie znaków i rozpoznawanie mowy.

Druga zima SI 1987–1993

[edytuj | edytuj kod]

Wzrost i upadek fascynacji społeczności biznesowej sztuczną inteligencją w latach 80. XX wieku daje się opisać klasycznym wzorem bańki spekulacyjnej. Upadek nastąpił w postrzeganiu SI przez agencje rządowe i inwestorów - mimo krytyki branża nadal robiła postępy. Rodney Brooks i Hans Moravec, badacze z pokrewnej dziedziny robotyki, opowiadali się za zupełnie nowym podejściem do sztucznej inteligencji.

Nowa i inna zima SI

[edytuj | edytuj kod]

Termin "Zima SI" został wymyślony przez naukowców, którzy przetrwali cięcia finansowe z 1974 r., kiedy to obawiali się, że entuzjazm dla systemów ekspertowych został tak nakręcony, że wymknie się spod kontroli i że rozczarowanie z pewnością nastąpi. Ich obawy były dobrze uzasadnione: pod koniec lat 80. i na początku lat 90. SI poniosło szereg niepowodzeń finansowych.

Pierwszą oznaką zmiany był nagły upadek rynku specjalistycznych urządzeń SI w 1987 roku. Komputery stacjonarne Apple i IBM stale zyskiwały na prędkości i mocy, a w 1987 roku stały się potężniejsze niż droższe Lisp-maszyny produkowane przez Symbolics. Nie było już dobrego powodu, by je kupować. Cała branża warta pół miliarda dolarów została szybko zburzona.

Ostatecznie najwcześniejsze udane systemy ekspertowe, takie jak XCON, okazały się zbyt drogie w utrzymaniu. Były trudne do aktualizacji, nie mogły się uczyć, były "brittle" (tzn. mogły popełniać groteskowe błędy, gdy otrzymywały nietypowe dane wejściowe) i padały ofiarą problemów (takich jak problem kwalifikacji). Systemy ekspertowe okazały się przydatne, ale tylko w kilku szczególnych kontekstach.

Pod koniec lat 80-tych, w ramach Strategic Computing Initiative "głęboko i brutalnie" obcięto fundusze na AI. Nowe kierownictwo DARPA zdecydowało, że AI nie jest "następną falą" i skierowało fundusze na projekty, które wydawały się bardziej prawdopodobne do osiągnięcia natychmiastowych rezultatów.

Do 1991 roku, imponująca lista celów wytyczonych w 1981 roku dla Japońskiego Projektu Piątej Generacji nie została osiągnięta. Niektóre z nich, takie jak "prowadzenie swobodnej rozmowy", nie zostały zrealizowane do 2010 r. Podobnie jak w przypadku innych projektów AI, oczekiwania były znacznie wyższe niż było to możliwe.

Ponad 300 przedsiębiorstw AI zostało zamkniętych, zbankrutowało lub zostało przejętych do końca 1993 r., skutecznie kończąc pierwszą komercyjną falę AI.

Znaczenie posiadania ciała: nouvelle AI i ucieleśniony rozum

[edytuj | edytuj kod]
 Główne strony: Nouvelle AIRobotyka behawioralna.

Pod koniec lat 80. kilku naukowców opowiedziało się za zupełnie nowym podejściem do sztucznej inteligencji, opartym na robotyce. Uważali oni, że aby pokazać prawdziwą inteligencję, maszyna musi mieć ciało - musi postrzegać, poruszać się, przetrwać i radzić sobie ze światem. Argumentowali, że te umiejętności sensoryczno-motoryczne są niezbędne dla umiejętności wyższego poziomu, takich jak zdroworozsądkowe rozumowanie i że abstrakcyjne rozumowanie jest w rzeczywistości najmniej interesującą lub ważną umiejętnością człowieka (patrz paradoks Moraveca). Opowiadali się za budowaniem inteligencji "od dołu do góry".

Podejście to ożywiło pomysły z cybernetyki i teorii sterowania, które były niepopularne od lat sześćdziesiątych. Innym prekursorem był David Marr, który przybył do MIT pod koniec lat 70. mając doświadczenie w teoretycznej neurobiologii. Miał poprowadzić grupę studiującą wizję. Odrzucił wszystkie podejścia symboliczne (zarówno logikę McCarthy'ego, jak i ramy Minsky'ego), twierdząc, że SI musi zrozumieć fizyczną maszynerię widzenia od dołu do góry, zanim nastąpi jakiekolwiek symboliczne przetwarzanie. (Praca Marra została wkrótce skrócona przez białaczkę w 1980 roku.)

W artykule z 1990 roku, "Elephants Don't Play Chess" badacz robotyki Rodney Brooks postawił sobie za cel hipotezę dotyczącą fizycznych systemów symbolicznych, argumentując, że symbole nie zawsze są potrzebne, ponieważ "świat jest swoim najlepszym modelem". Jest on zawsze dokładnie aktualny. Zawsze ma każdy szczegół, który musi być znany. W latach 80. i 90. wielu kognitywistów odrzuciło również model przetwarzania symboli umysłu i argumentowało, że ciało jest niezbędne dla rozumowania, czyli teorii zwanej teorią ucieleśnionego umysłu (embodied mind).

SI 1993–2011

[edytuj | edytuj kod]

Dziedzina SI, licząca ponad pół wieku, w końcu osiągnęła niektóre ze swoich najstarszych celów. Zaczęła być z powodzeniem stosowana w całej branży technologicznej. Część sukcesu zawdzięczamy rosnącej mocy obliczeniowej komputerów, a część osiągnięto koncentrując się na konkretnych, odizolowanych problemach i realizując je z zachowaniem najwyższych standardów odpowiedzialności naukowej. Mimo to, reputacja AI, przynajmniej w świecie biznesu, nie była najlepsza. W tej dziedzinie nie było zgody co do przyczyn niespełnienia przez SI marzenia o inteligencji na poziomie ludzkim, która w latach 60-tych podbiła wyobraźnię świata. Wszystkie te czynniki razem przyczyniły się do podzielenia SI na konkurujące ze sobą subpola, koncentrujące się na konkretnych problemach lub podejściach, czasem nawet pod nowymi nazwami, które ukrywały splamiony rodowód "sztucznej inteligencji".

Kamienie milowe i prawo Moore'a

[edytuj | edytuj kod]

11 maja 1997 roku Deep Blue stał się pierwszym komputerowym systemem do gry w szachy, który pokonał panującego mistrza świata w szachach, Garriego Kasparowa. Superkomputer był wyspecjalizowaną wersją szkieletu wyprodukowanego przez IBM i był w stanie przetworzyć dwa razy więcej ruchów na sekundę niż podczas pierwszego meczu (który Deep Blue przegrał), nawet 200 000 000 ruchów na sekundę. Wydarzenie było transmitowane na żywo przez Internet i otrzymało ponad 74 miliony odsłon.

W 2005 r. robot Stanford wygrał DARPA Grand Challenge, przejechawszy samodzielnie 131 mil nieprzećwiczonym szlakiem pustynnym. Dwa lata później zespół z CMU wygrał Wyzwanie DARPA Urban Challenge, samodzielnie poruszając się na dystansie 55 mil w środowisku miejskim, przestrzegając jednocześnie zasad bezpieczeństwa ruchu drogowego i wszystkich przepisów ruchu drogowego. W lutym 2011 roku, w teleturnieju Jeopardy!, system Question Answering od IBM, Watson, znacząco pokonał dwóch największych mistrzów.

Sukcesy te nie wynikały z jakiegoś rewolucyjnego nowego paradygmatu, ale głównie z żmudnego stosowania umiejętności inżynierskich i ogromnego wzrostu szybkości i pojemności komputerów w latach 90. W rzeczywistości komputer Deep Blue był 10 milionów razy szybszy niż Ferranti Mark I, którego Christopher Strachey nauczał grać w szachy w 1951 r. Ten dramatyczny wzrost mierzony jest przez prawo Moore'a, które przewiduje, że szybkość i pojemność pamięci komputerów podwaja się co dwa lata. Podstawowy problem "surowej mocy obliczeniowej" był powoli przezwyciężany.

Inteligentni agenci

[edytuj | edytuj kod]

Nowy paradygmat zwany "inteligentnymi agentami" zyskał powszechną akceptację w latach 90. Chociaż wcześniejsi badacze zaproponowali modułowe podejście "dziel i zwyciężaj", inteligentny agent nie osiągnął swojej nowoczesnej formy, dopóki Judea Pearl, Allen Newell, Leslie P. Kaelbling i inni nie wprowadzili koncepcji z teorii decyzji i ekonomii do badań SI. Kiedy ekonomiczna definicja racjonalnego agenta została powiązana z definicją obiektu lub modułu w informatyce, paradygmat inteligentnego agenta był kompletny.

Inteligentny agent to system, który postrzega swoje otoczenie i podejmuje działania, które zwiększają jego szanse na sukces. Według tej definicji, proste programy, które rozwiązują konkretne problemy są "inteligentnymi agentami", podobnie jak istoty ludzkie i organizacje ludzkie, takie jak firmy. Paradygmat inteligentnego agenta definiuje badania SI jako "badanie inteligentnych agentów". Jest to uogólnienie niektórych wcześniejszych definicji SI: wykracza poza badanie ludzkiej inteligencji; bada wszystkie rodzaje inteligencji.

Paradygmat ten dawał naukowcom licencję na badanie pojedynczych problemów i znajdowanie rozwiązań, które byłyby zarówno weryfikowalne, jak i użyteczne. Zapewnił wspólny język do opisywania problemów i dzielenia się rozwiązaniami ze sobą i z innymi dziedzinami, które również wykorzystywały pojęcia agentów abstrakcyjnych, takich jak ekonomia i teoria kontroli. Była nadzieja, że pełna architektura agenta (jak SOAR Newella) pozwoli kiedyś naukowcom budować bardziej uniwersalne i inteligentne systemy z interakcji z inteligentnymi agentami.

Wdrożenie Rygoru

[edytuj | edytuj kod]

Naukowcy SI zaczęli rozwijać i wykorzystywać zaawansowane narzędzia matematyczne bardziej niż kiedykolwiek wcześniej. Powszechnie wiadomo było, że wiele problemów, które AI potrzebowała rozwiązać, było już opracowywanych przez naukowców w dziedzinach takich jak matematyka, ekonomia czy badania operacyjne. Wspólny język matematyczny pozwolił zarówno na wyższy poziom współpracy z bardziej ugruntowanymi i udanymi dziedzinami, jak i na osiągnięcie wymiernych i możliwych do udowodnienia wyników; AI stała się bardziej rygorystyczną dyscypliną "naukową". Russell & Norvig (2003) opisują to jako "rewolucję" i "zwycięstwo schludnych".

Wpływowa książka Judei Pearla z 1988 roku wniosła do SI teorię prawdopodobieństwa i decyzji. Wśród wielu nowych narzędzi znalazły się sieci bayesowskie, ukryte modele Markowa, teoria informacji, modelowanie stochastyczne i klasyczna optymalizacja. Precyzyjne opisy matematyczne zostały również opracowane dla paradygmatów obliczeń inteligentnych, takich jak sieci neuronowe i algorytmy ewolucyjne.

SI w zastosowaniach

[edytuj | edytuj kod]

Algorytmy pierwotnie opracowane przez badaczy AI zaczęły pojawiać się jako części większych systemów. AI rozwiązała wiele bardzo trudnych problemów, a ich rozwiązania okazały się przydatne w całym przemyśle technologicznym, takim jak eksploracja danych, robotyka przemysłowa, logistyka, rozpoznawanie mowy, oprogramowanie bankowe, diagnostyka medyczna i wyszukiwarka Google.

W latach 90. i na początku 2000. nie doceniono tych sukcesów w dziedzinie SI. Wiele z największych innowacji SI zostało zredukowanych do rangi kolejnej pozycji narzędzi informatycznych. Nick Bostrom wyjaśnia: "Wiele najnowocześniejszej SI przefiltrowano do ogólnych zastosowań, często bez nazwy SI, ponieważ gdy coś stanie się wystarczająco użyteczne i na tyle powszechne, nie jest już oznaczone SI".

Wielu badaczy zajmujących się sztuczną inteligencją w latach 90-tych celowo nazywało swoje prace innymi nazwami, takimi jak informatyka, systemy oparte na wiedzy, systemy poznawcze czy obliczenia inteligentne. Po części dlatego, że uważali oni, że ich dziedzina różni się zasadniczo od informatyki, ale również nowe nazwy pomagają w pozyskiwaniu funduszy. Przynajmniej w świecie komercyjnym nieudane obietnice (Zima SI) nadal prześladowały badania nad sztuczną inteligencją w latach 2000; jak donosił New York Times w 2005 roku: "Naukowcy komputerowi i inżynierowie oprogramowania unikali terminu sztuczna inteligencja w obawie przed byciem postrzeganym jako błędnoocy marzyciele".

Predykcje

[edytuj | edytuj kod]

W 1968 roku Arthur C. Clarke i Stanley Kubrick wyobrażali sobie, że do 2001 roku maszyna będzie istniała z inteligencją, która dorówna lub przekroczy możliwości człowieka. Postać, którą stworzyli, HAL 9000, opierała się na przekonaniu wielu czołowych badaczy AI, że taka maszyna będzie istniała do 2001 roku.

W 2001 roku współtwórca SI, Marvin Minsky, zadał pytanie: "Więc dlaczego nie dostaliśmy HALa w 2001 roku?". Minsky uważał, że odpowiedź jest taka, że główne problemy, takie jak zdroworozsądkowe rozumowanie, były zaniedbywane, podczas gdy większość badaczy dążyła do takich rzeczy jak komercyjne zastosowania sieci neuronowych lub algorytmów genetycznych. Z drugiej strony John McCarthy nadal obwiniał problem kwalifikacji. Dla Raya Kurzweila problemem jest moc komputera i, wykorzystując prawo Moore'a, przewidział, że maszyny z ludzką inteligencją pojawią się do 2029 r. Jeff Hawkins twierdził, że badania sieci neuronowych ignorują podstawowe właściwości ludzkiej kory mózgowej, preferując proste modele, które z powodzeniem rozwiązywały proste problemy. Było wiele innych wyjaśnień i dla każdego z nich realizowany był odpowiedni program badawczy.

Deep learning, big data i silna sztuczna inteligencja: 2011–teraz

[edytuj | edytuj kod]

W pierwszych dekadach XXI wieku dostęp do dużych ilości danych (znanych jako "big data"), tańsze i szybsze komputery oraz zaawansowane techniki uczenia maszynowego zostały z powodzeniem zastosowane do wielu problemów w całej gospodarce. McKinsey Global Institute oszacował w swoim słynnym artykule "Big data: Kolejna granica innowacji, konkurencji i produktywności", że "do 2009 r. prawie wszystkie sektory w gospodarce USA będą miały średnio co najmniej 200 terabajtów przechowywanych danych".

Do 2016 r. rynek produktów, sprzętu i oprogramowania związanych z AI osiągnął ponad 8 miliardów dolarów, a New York Times doniósł, że zainteresowanie AI osiągnęło "szał". Zastosowania dużych danych zaczęły docierać również do innych dziedzin, takich jak modele szkoleniowe w dziedzinie ekologii oraz do różnych zastosowań w ekonomii. Postępy w zakresie głębokiego uczenia (szczególnie głębokie konwolucyjne sieci neuronowe i rekurencyjne sieci neuronowe) przyczyniły się do postępu i badań w dziedzinie przetwarzania obrazu i obrazu, analizy tekstu, a nawet rozpoznawania mowy.

Deep learning

[edytuj | edytuj kod]
 Główna strona: Deep learning.

Głębokie uczenie się jest dziedziną uczenia maszynowego, która modeluje abstrakcyjne dane na wysokim poziomie za pomocą głębokiego wykresu z wieloma warstwami przetwarzania. Zgodnie z uniwersalnym twierdzeniem aproksymacyjnym, głębokość nie jest konieczna, aby sieć neuronowa mogła przybliżać dowolne funkcje ciągłe. Mimo to, istnieje wiele problemów, które są powszechne w przypadku sieci płytkich (takich jak overfitting), których głębokie sieci pomagają uniknąć. Jako takie, głębokie sieci neuronowe są w stanie realistycznie wygenerować znacznie bardziej złożone modele w porównaniu z ich płytkimi odpowiednikami.

Jednak głębokie uczenie się ma swoje własne problemy. Częstym problemem rekurencyjnych sieci neuronowych jest vanishing gradient problem, w którym gradienty przechodzące między warstwami stopniowo się kurczą i dosłownie znikają, ponieważ są zaokrąglone do zera. Opracowano wiele metod podejścia do tego problemu, takich jak jednostki pamięci krótkotrwałej.

Najnowocześniejsze, głębokie architektury sieci neuronowych mogą czasami nawet konkurować z ludzką dokładnością w takich dziedzinach jak widzenie komputerowe, szczególnie w takich dziedzinach jak baza danych MNIST i rozpoznawanie znaków drogowych.

Przetwarzające języki silniki napędzane przez inteligentne wyszukiwarki mogą łatwo pokonać ludzi w odpowiadaniu na ogólne pytania dotyczące ciekawostek (takie jak IBM Watson), a ostatnie osiągnięcia w głębokim uczeniu się przyniosły dobre wyniki w konkurowaniu z ludźmi, w grach takich jak Go czy Doom.

Big Data

[edytuj | edytuj kod]
 Główna strona: Big Data.

Duże dane odnoszą się do zbioru danych, które nie mogą być przechwycone, zarządzane i przetwarzane przez konwencjonalne narzędzia programowe w określonych ramach czasowych. Jest to ogromna ilość możliwości podejmowania decyzji, wglądu i optymalizacji procesów, które wymagają nowych modeli przetwarzania. W erze dużych danych napisanej przez Victora Meyera Schonberga i Kennetha Cooke'a, duże dane oznaczają, że zamiast analizy losowej (badanie reprezentacyjne), wszystkie dane są wykorzystywane do analizy. Charakterystyka 5V dużych danych (zaproponowana przez IBM): Wolumen, Prędkość, Odmiana, Wartość, Poprawność (Volume, Velocity, Variety, Value, Veracity). Strategiczne znaczenie technologii dużych danych nie polega na opanowaniu ogromnych informacji o danych, ale na specjalizacji w tych znaczących danych. Innymi słowy, jeśli duże dane porównać do branży, kluczem do osiągnięcia rentowności w tej branży jest zwiększenie "zdolności przetwarzania" danych i realizacja "wartości dodanej" danych poprzez "przetwarzanie".

Silna sztuczna inteligencja

[edytuj | edytuj kod]
 Główna strona: Silna sztuczna inteligencja.

Sztuczna inteligencja to gałąź informatyki, która stara się zrozumieć istotę inteligencji i wyprodukować nową inteligentną maszynę, która reaguje w sposób podobny do ludzkiej inteligencji. Badania w tej dziedzinie obejmują robotykę, rozpoznawanie mowy, rozpoznawanie obrazu, przetwarzanie języka naturalnego i systemy ekspertowe. Od zarania dziejów sztucznej inteligencji teoria i technologia stają się coraz bardziej dojrzałe, a obszary zastosowań poszerzają się. Można sobie wyobrazić, że produkty technologiczne, które w przyszłości przyniosła sztuczna inteligencja, będą "pojemnikiem" ludzkiej mądrości. Sztuczna inteligencja może symulować proces informacyjny ludzkiej świadomości i myślenia. Sztuczna inteligencja nie jest inteligencją ludzką, ale może być jak myślenie ludzkie i może przewyższać inteligencję ludzką. Sztuczna inteligencja ogólna nazywana jest również "silną SI", "pełną SI" lub zdolnością maszyny do wykonywania "ogólnych działań inteligentnych". Źródła akademickie zastrzegają "silną SI", aby odnosić się do maszyn zdolnych do odczuwania świadomości.

  1. Inne ważne automaty zostały zbudowane przez Haruna ar-Raszida, Jacquesa de Vaucansona, Leonarda Torres y Quevedo[8].

Przypisy

[edytuj | edytuj kod]
  1. Andreas Kaplan, Michael Haenlein, Siri, Siri, in my hand: Who’s the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence, „Business Horizons”, 62 (1), 2019, s. 15–25, DOI10.1016/j.bushor.2018.08.004, ISSN 0007-6813 [dostęp 2019-12-05].
  2. Pamela McCorduck: Machines Who Think. Natick, Massachusetts: A K Peters, Ltd, 2004, s. 5. ISBN 978-1-56881-205-2.
  3. Pamela McCorduck: Machines Who Think. Natick, Massachusetts: A K Peters, Ltd, 2004, s. 15-16. ISBN 978-1-56881-205-2. (Golem); Pamela McCorduck: Machines Who Think. Natick, Massachusetts: A K Peters, Ltd, 2004, s. 13-14. ISBN 978-1-56881-205-2. (Paracelsus); Kathleen Malone O'Connor, The alchemical creation of life (takwin) and other concepts of Genesis in medieval Islam, „Dissertations available from ProQuest”, 1994, s. 1–435 [dostęp 2019-12-05]. (Takwin)
  4. Pamela McCorduck: Machines Who Think. Natick, Massachusetts: A K Peters, Ltd, 2004, s. 17-25. ISBN 978-1-56881-205-2.
  5. Darwin Among the Machines — [To the Editor of the Press, Christchurch, New Zealand, 13 June, 1863.] | NZETC [online], nzetc.victoria.ac.nz [dostęp 2019-12-05].
  6. Jo Riley, Riley Jo, Chinese Theatre and the Actor in Performance, Cambridge University Press, 13 czerwca 1997, ISBN 978-0-521-57090-9 [dostęp 2019-12-05] (ang.). (Yan Shi); Pamela McCorduck: Machines Who Think. Natick, Massachusetts: A K Peters, Ltd, 2004, s. 6, 17. ISBN 978-1-56881-205-2. (Heron, Kempelen); AlShindagah Online [online], www.alshindagah.com [dostęp 2019-12-05]. (Al-Dżazari);
  7. Pamela McCorduck: Machines Who Think. Natick, Massachusetts: A K Peters, Ltd, 2004, s. 8, 6-9. ISBN 978-1-56881-205-2. (cytat, święte posągi); Daniel Crevier, AI: The Tumultuous History of the Search for Artificial Intelligence [online], styczeń 1993, s. 1. (święte posągi)
  8. Pamela McCorduck: Machines Who Think. Natick, Massachusetts: A K Peters, Ltd, 2004, s. 10, 16, 59–62. ISBN 978-1-56881-205-2.
Błąd w przypisach: Znacznik <ref> zdefiniowany w <references> o nazwie „McCorduck” nie ma treści.