7. Nie mamy dziś ogólnie zaakceptowanej definicji Sztucznej Inteligencji!
Mamy bardzo złą „popularną” definicję (wywodzącą się z literatury i filmu Science Fiction)
wyrażoną np. w:
„The exciting new effort to make computers think … machines with minds, in the full and literal
sense.” (John Haugeland, autor koncepcji GOFAI - Good Old-Fashioned Artificial Intelligence)
Jeden z najbardziej popularnych podręczników Sztucznej Inteligencji (Russell and Norvig,
„Artificial Intelligence: A Modern Approach”) podaje aż cztery definicje:
o Systemy, które „myślą” jak ludzie
o Systemy, które „zachowują się” jak ludzie
o Systemy, które „myślą” racjonalnie
o Systemy, które „zachowują się” racjonalnie
8. DOBRA, ROBOCZA DEFINICJA:
„Sztuczna inteligencja (Artificial Intelligence)
jest nauką oraz zbiorem technologii
obliczeniowych, inspirowanych, (choć zwykle
działających w zupełnie inny sposób) –
metodami, jakimi posługują się ludzie
używający swojego umysłu, inteligencji
i cielesności, aby postrzegać, uczyć się,
wnioskować i podejmować stosowne działania.”
Definicja tu przytoczona oparta jest o
definicję zawartą w słynnym raporcie AI100
„One Hundred Years Study on Artificial
Intelligence”: http://ai100.stanford.edu/
9. • Prekursorem Sztucznej Inteligencji jest
Alan Turning – genialny matematyk i
kryptoanalityk. Twórca matematycznego
modelu komputerów – ważnego do dziś.
• Sztuczna Inteligencja jako dyscyplina
naukowa powstała w wyniku bardzo
długiego i burzliwego rozwoju
zapoczątkowanego w roku 1956 przez
John’a McCarthy, który zorganizował w
Dartmouth (USA) słynny „Letni Projekt
badawczy Sztucznej Inteligencji”.
• J. McCarthy, M. L. Minsky, N. Rochester,
C.E. Shannon. “Dartmouth Summer
Research Project On Artificial Intelligence”.
10. • Lata 60-te XX wieku – finansowanie projektów AI przez Department of Defense.
• Optymizm:
Herbert Simon: "machines will be capable, within twenty years, of doing any work a man can do."
Marvin Minsky: "within a generation ... the problem of creating 'artificial intelligence' will
substantially be solved."
• Był to jednak optymizm przedwczesny – w latach 70-tych następuje zatrzymanie finansowania AI –
rozpoczyna się okres zwany „AI Winter” – „Zima Sztucznej Inteligencji”
• Lata 80-te – Rozwój Systemów Eksperckich – „Expert systems”
• Lata 90-te – Rozwój „Data mining”, diagnostyka medyczna
• Koniec wieku - symboliczne zwycięstwo Deep Blue (IBM) nad Gary Kasparow (Maj 1997)
• Pierwsze lata XXI wieku – Rozwój machine-learning (IBM Watson zwycięża w Jeopardy – 2011)
• 2010-2015 – Rozwój technologii „Deep Learning” „Neural networks” i „Big Data”
• 2015 – rok dynamicznego wzrostu ilości projektów AI …
11. Ograniczona Sztuczna Inteligencja (Narrow AI, Soft AI) jest zastosowaniem bardzo szerokiego
spektrum algorytmów komputerowych do rozwiązywania problemów wymagających
inteligentnej analizy, logicznego wnioskowania oraz podejmowania działań, jakie dotychczas
zwykle były domeną intelektu człowieka.
Opisując zjawisko „Narrow AI” nie można wskazać jednego dominującego sposobu
rozwiązywania występujących w nim problemów.
Cechą charakterystyczną tego kierunku jest stosowanie algorytmów, które są bardzo specyficzne
dla specyficznych problemów.
I tak na przykład najlepsze współczesne algorytmy rozpoznawania i analizy obrazów są zupełnie
inne od algorytmów analizy języka naturalnego (NLP – Natural Language Processing) czy też
algorytmów Automatycznej Analizy Mowy - ASR (Automated Speech Recognition)
12. Ogólna Sztuczna Inteligencja (Hard AI, General AI, AGI – Artificial General Intelligence):
To dziedzina badań odnosząca się do nadal SPEKULATYWNEJ przyszłej Sztucznej Inteligencji,
która charakteryzuje się inteligentnym zachowaniem przynajmniej tak zaawansowanym jak
istota ludzka w bardzo szerokim zakresie funkcji kognitywnych.
Pomiędzy Ograniczoną a Ogólną Sztuczną Inteligencją występuje dziś gigantyczna przepaść.
Wszelkie usiłowania aby przejść (ewolucyjnie) od Ograniczonej go Ogólnej Sztucznej Inteligencji
nie przyniosły żadnego efektu mimo dziesięcioleci badań i eksperymentów.
Ogólna Sztuczna Inteligencja stała się przedmiotem wielu spekulacji, z których najbardziej
znana to teoria Singularności (Ray Kurzweil) przewidująca eksplozję inteligencji maszynowej
oraz możliwości takie jak np. „upload” zawartości umysłu do komputerów.
Ale - czy Ogólna Sztuczna Inteligencja jest w ogóle możliwa ….?
13. Wielu wybitnych naukowców uważa, że NIE!
Argumentacja jest bardzo silna:
Twierdzenie Turinga i jego konsekwencje
„He went on to prove that there was no solution to the decision problem
by first showing that the halting problem for Turing machines
is undecidable: It is not possible to decide algorithmically whether
a Turing machine will ever halt.” https://en.wikipedia.org/wiki/Alan_Turing
Skoro Wszystkie znane dziś systemy komputerowe SĄ maszynami Turinga
Oraz Ludzki umysł posiada zdolność (nie algorytmiczną) rozwiązania „problemu stopu”
Wnioskujemy komputery nie mogą mieć zdolności posiadanych przez ludzki umysł
14. ZNACZENIE TWIERDZENIA GÖDEL’A.
„Gödel's incompleteness theorems are two theorems of mathematical logic that demonstrate the
inherent limitations of every formal axiomatic system containing basic arithmetic. (…)
The theorems are widely, but not universally, interpreted as showing that Hilbert's program to find
a complete and consistent set of axioms for all mathematics is impossible.”
https://en.wikipedia.org/wiki/Godels_theorem
ZNACZENIE TWIERDZENIA GÖDEL’A - ARGUMENT LUCAS-PENROSE’A:
„The argument claims that Gödel’s first incompleteness theorem shows that the human mind is
not a Turing machine, that is, a computer. The argument has generated a great deal of
discussion since then. The influential Computational Theory of Mind, which claims that the human
mind is a computer, is false if Lucas’s argument succeeds. Furthermore, if Lucas’s argument is
correct, then “strong artificial intelligence,” the view that it is possible at least in principle to
construct a machine that has the same cognitive abilities as humans, is false.
(http://www.iep.utm.edu/lp-argue/) „
15. PONADTO:
wielu badaczy (w tym sam Penrose) sugerowało, że jeśli poznamy lepiej zjawiska kwantowe
zachodzące w mózgu, i odtworzymy je w „kwantowym komputerze” – otworzy to drogę do
Sztucznej Inteligencji…
ALE …
17. Najciekawsze argumenty pochodzą z rozważań Davida Deutsch’a:
https://aeon.co/essays/how-close-are-we-to-creating-artificial-intelligence
Z jednej strony Deutsch nie akceptuje argumentu opartego na twierdzeniu Turinga:
Ale konkluduje:
19. Uczenie maszynowe (Machine Learning)
Analiza Języka Naturalnego /
Syntetyczna Mowa
Rozpoznawanie i analiza obrazu /
Maszynowe Widzenie
Planowanie aktywności ludzi i systemów
- systemy kolaboracyjne
Robotyka
Autonomiczne systemy transportowe
Diagnostyka i roboty medyczne
Maszynowa Reprezentacja Wiedzy,
maszynowe Wnioskowanie
Systemy Eksperckie
20. Apple’s Siri
Google Now
Microsoft Cortana
Amazon Alexa
Google Search
Self Driving cars
MakoLab SESSA
24. TIM BERNERS-LEE
oraz JIM HANDLER
wyznaczają kierunki
(po raz trzeci w historii)
Postulują, że jedynie
Semantic Web może pomóc
w stworzeniu „social machines”
–agentów praktycznie
pomagających nam w życiu
29. Nie są zatem pozbawione sensu usiłowania zbudowania swoistej „etyki” dla Sztucznej
Inteligencji. https://www.cs.ox.ac.uk/efai/tag/principles-of-robotics/
Izaak Asimov sformułował „trzy prawa robotów” (1942):
Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek
doznał krzywdy.
Robot musi być posłuszny rozkazom człowieka, chyba, że stoją one w sprzeczności z Pierwszym
Prawem.
Robot musi chronić samego siebie, o ile tylko nie stoi to w sprzeczności z Pierwszym lub
Drugim Prawem. https://en.wikipedia.org/wiki/Three_Laws_of_Robotics
Koncepcji „Maszyny Deontycznej” Roberta Trypuza i Piotra Kulickiego (KUL/MakoLab):
Robert Trypuz, Piotr Kulicki, „Deontic machine for prima facie duties”
30. Jeśliby taka ogólna AI powstała na bazie
tradycyjnych (klasycznych – czyli
mieszczących się w definicji „Maszyny
Turinga”) technik obliczeniowych,
nie sposób będzie utrzymać pogląd
o „nieredukowalnym” umyśle. Konieczna
byłaby rewizja koncepcji osoby ludzkiej, jako
bytu duchowo-cielesnego, gdyż nie da się
wtedy już utrzymać założenia o
substancjalności i niezależności bytowej
ostatecznej podstawy świadomości, czyli
ludzkiej duszy.
Jeśli natomiast taka „General AI” powstałaby
za pomocą metod bliskich „Quantum
Computing” musielibyśmy dodatkowo
z całą pewnością odrzucić kartezjański
dualizm „duszy” i „ciała”, ale też być może
nawet bardziej subtelne koncepcje relacji
duszy i ciała występujące z jednej strony
w tradycji Arystotelowskiej, a z drugiej –
w ujęciach fenomenologicznych osoby
ludzkiej.
31. Istnienie możliwej do
technologicznego stworzenia
„Ogólnej AI” naruszyłoby też
pewność, z jaką w naszej
kulturze a szczególnie w
tradycji religii Abrahamowych,
wypowiadamy się o
szczególnej roli człowieka w
porządku stworzenia i jego
duchowo-cielesnej naturze.
Być może warto, aby właśnie w
tym kontekście, filozofowie
oraz przedstawiciele
poglądów religijnych
wzmocnili istniejący, ale
niezbyt aktywny dialog,
zarówno pomiędzy sobą jak
również z innymi tradycjami
religijnymi i zapoczątkowali
poważne rozważania na temat
Sztucznej Inteligencji?
Być może powstanie Ogólnej
AI nie musi zaprzeczać
odmienionej, ale nadal
głęboko duchowej koncepcji
człowieka? Warto tutaj
zwrócić uwagę, iż np.
w buddyzmie znajdujemy
interesujący, choć niewątpliwie
kontrowersyjny pogląd,
niewykluczający sztucznej
inteligencji ze zdolności do
osiągnięcia oświecenia
duchowego.
32. Oczywiście, wszystkie tego typu rozważania są oparte na
jedynie hipotetycznym istnieniu „Strong AI”.
Dzisiaj tak rozumianej Sztucznej Inteligencji nie ma
i należy zachować daleko idącą ostrożność, zarówno
zakładając jej szybkie powstanie jak i też zaprzeczając
takiej możliwości…
34. Szczególnie ważne dla AI są następujące kierunki dydaktyki:
Algorytmy optymalizujące
Analiza danych
Niestandardowe bazy danych
Maszynowe uczenie
Maszynowe wnioskowanie
Rozpoznawanie obrazów i mowy
Reprezentacja wiedzy
35. Rola badań nad językiem:
Komunikacja z nowoczesnymi inteligentnymi systemami wymaga
rozpoznawania i generowania mowy ludzkiej – kompetencje w zakresie NLP
(Natural Language Processing) są dziś bardzo potrzebne
Automatyczna analiza tekstów i rozpoznawanie znaczeń jest bardzo ważnym
elementem wielu nowoczesnych systemów cyfrowych. Lingwistyka – może
odegrać ogromną rolę w tworzeniu takich systemów.
36. Nowoczesne kierunki takie jak kognitywistyka pozwalają na kształcenie
specjalistów w dziedzinach powiązanych z „Narrow AI”
Informatyka współczesna potrzebuje dziś wsparcia zaawansowanej logiki
i filozofii.
Filozofowie i etycy mogą zaangażować się w tworzenie klimatu społecznej
akceptacji dla „Narrow AI”
37. Systemy Sztucznej Inteligencji, w tym systemy „autonomiczne” (w tym np.
„self-driving cars”) wymagają bardzo starannego i racjonalnego opracowania
zagadnień etycznych.
Niezmierne istotne zagadnienie w rozstrzyganiu odpowiedzialności działań
systemów AI !
Racjonalizacja zagadnień etycznych może prowadzić do możliwości
reprezentacji etyki za pomocą danych i programów.
Absolwenci humanistyki mogą odegrać ogromną rolę w tworzeniu regulacji
prawnych stosowania AI.
38. Budowanie ontologii, systemów i aplikacji semantycznych, repozytoriów
wiedzy – wymaga dogłębnej znajomości logiki i klasycznej ontologii.
Dziedziny takie jak epistemologii i metafizyka są również bardzo pomocne.
Klasyczne wykształcenie filozoficzne pobudza zdolność do krytycznego
myślenie – niezbędną w pracy w tych dziedzinach.
39. Cyfrowa rzeczywistość jaka nas
otacza już dziś nabiera postaci
ECOSYSTEMU.
Niestety, nikt do końca nie
rozumie jej istoty.
Istnieje potrzeba badań
filozoficznych jakie inspiruje np.
Pierre Tielhard de Chardin – por.
jego pojęcia NOOSFERA, Punkt
OMEGA ?
Image designed by St. Edward’s University graphic design students
40. Badania nad umysłem i naturą
inteligencji
https://www.theguardian.com/science/2012/oct/03/philosophy-artificial-intelligence
3/10/2012