26.03.2025

Nareszcie ktoś wyjaśnił sprawę AI.

Nareszcie ktoś (czyli fachowiec prof. LeCun) wyjaśnił sprawę AI. Profesor stwierdził, że AI nie ma rozeznania w świecie rzeczywistym. Nasze domowe zwierzęta rodzą sobie doskonale w otaczającym ich świecie, lecz AI tego nie potrafi. Człowiek jako dziecko uczy się grawitacji w kilka miesięcy, podobnie psy i koty uczą się tego równie szybko wykorzystując swoje doświadczenie.

Na razie AI porusza się jedynie w systemach zamkniętych, jakimi są systemy językowe. Jest to możliwe, ponieważ język stanowi ciąg określonych symboli. W słowniku znajduje się zawsze skończona liczba słów. Dlatego można wytrenować AI do przewidywania występowania w zdaniu danego słowa. System AI potrafi rozpoznawać języki, umie czytać i pisać teksty, umie wreszcie rozmawiać w konkretnym języku. Wydaje się, że można by to nazwać rozumieniem języka, który jest zamkniętym układem i określonym systemem.

Ale świat realny to zupełnie coś innego. Profesor mówi, że świat fizyczny jest bardzo skomplikowany, a przez to trudny do zrozumienia. Ilość informacji, jakie uzyskujemy dzięki poznaniu zmysłowemu, jest ogromna w porównaniu do informacji, jakie zyskujemy dzięki mowie. Ale okazuje się, że nie da się mierzyć informacji w sposób absolutny, bo każda informacja jest względna. Ilość informacji w rozmowie dwóch ludzi zależy od sposobu interpretacji. Ilość informacji, jaką zawiera jakaś wiadomość, zależy od interpretacji osoby, która otrzymała wiadomość.

Oczywiście próbuje się nauczyć AI rozumowania potrzebnego do rozwiązywania  określonych problemów. To rozumowanie ma polegać na rozwiązaniu danego problemu. W tym wypadku sposoby rozumowania opierają się na idei poszukiwania. Poszukuje się różnych możliwości podejścia do problemu. System językowy przeprowadza poszukiwania w przestrzeni tokenów (talkenów?), czyli różnych wypowiedzi na dany temat. System językowy przegląda losowo związki i relacje tokenów, a następnie sieć neuronowa przegląda zgromadzony materiał, aby wybrać to, co uzna za najlepsze.

Ale człowiek tak nie myśli. My rozumujemy nie wychodząc od czegoś (od danych początkowych) i nie przebiegamy tych różnych możliwości czy związków. My rozumujemy od razu w przestrzeni abstrakcyjnej posługując się abstrakcyjnym modelem (lub wzorem) świata realnego, co pozwala nam przewidywać skutki działania. Dzięki temu możemy określić i ustalić działania prowadzące do osiągnięcia celu. Posługujemy się planowaniem.

Dlatego prof. LeCun stwierdził, że kwestia wyprowadzania abstrakcyjnych reprezentacji (czyli wzorów) z obserwacji doświadczalnej, jest kluczowa dla uczenia maszynowego, przede wszystkim dla uczenia głębokiego. Głębokie uczenie powinno polegać na uczeniu się reprezentacji (ale u człowieka mamy po prostu tworzenie takich abstrakcyjnych wzorów w postaci pojęć ogólnych -- moje). To, czego obecnie brakuje AI, to fakt, żeby system AI rozumiał dane zmysłowe (np. dane wzrokowe). Jest to konieczne, żeby maszyny rozumiały świat tak jak zwierzęta i ludzie. Jeżeli więc zdołamy zbudować system AI, który będzie rozumiał świat fizyczny (realny), będzie posiadał pamięć podobną do ludzkiej oraz będzie rozumował i planował działanie, to dopiero wtedy będzie można mówić o sztucznej inteligencji i będzie można wykorzystywać ją w tworzeniu technologii robotów adaptacyjnych. Na razie roboty nie są na tyle inteligentne, aby radzić sobie w świecie fizycznym (w rzeczywistości).

Brak komentarzy:

Prześlij komentarz