30 września, 2023

Historia AI w pigułce

Jeszcze dwa lata temu zaledwie 7% firm w Unii Europejskiej i 3% w Polsce wykorzystywało sztuczną inteligencję w swojej działalności[1]. Chociaż oficjalnych statystyk za 2022 czy 2023 rok jeszcze nie mamy, instynktownie można spodziewać się, że te liczby będą już znacznie wyższe. AI jest na fali, na jakiej nigdy wcześniej jeszcze nie było.

Chociaż od lat wieszczono, że ta technologia będzie podstawą funkcjonowania wielu branż, to dopiero w ostatnich miesiącach przeszliśmy w tym zakresie od teorii do praktyki. W tym tekście postaramy się pokazać, jak wyglądał rozwój AI w ostatnich dekadach i dlaczego akurat dzisiaj coraz więcej osób jest zainteresowanych możliwościami tej technologii.

Kiedy rozpoczęła się historia AI?

Już w 1830 roku pojawiły się pierwsze modele matematyczne i założenia. Ich realizacja była jednak wyzwaniem z powodu braku dostępności mocy obliczeniowych. Przykładem była Maszyna Analityczna Charlesa Babbage’a, brytyjskiego naukowca, która miała mieć możliwość podejmowania decyzji na podstawie poprzednich obliczeń. Ada Lovelace napisała do niej program, który dawałby możliwość obliczenia liczby Bernoulliego. Maszyna nie ujrzała jednak nigdy światła dziennego, chociaż Lovelace okrzyknięto pierwszą na świecie programistką.

Pod koniec XIX wieku Leopold Kronecker w Niemczech zdefiniował pierwsze funkcje rekurencyjne, a do 1930 roku naukowcy zdążyli sformułować pierwsze wiodące algorytmy. W międzyczasie, w pierwszej połowie XX wieku, w literaturze science fiction pojawiały się pierwsze opisy robotów tworzonych na podobieństwo człowieka, takich jak Tin z „Czarnoksiężnika z Oz”. Później cała generacja naukowców, zainspirowana tymi opowieściami, zastanawiała się nad tym, jak przekuć wizję w rzeczywistość.

Rozwój prac nad AI w latach 50-tych ubiegłego wieku przyśpieszył za sprawą Alana Turinga. Chociaż ten naukowiec kojarzony jest głównie z rozszyfrowaniem kodu Enigmy, to uznawany jest również za ojca AI. Rozszyfrowanie Enigmy nie tylko przeważyło szalę zwycięstwa podczas wojennych zmagań, ale też zasadniczo wpłynęło na kierunek badań nad sztuczną inteligencją. To właśnie pracujący na pełnych obrotach komputer asystował Turingowi w rozwiązaniu zagadki kryptograficznej, ukazując tym samym potencjał maszyn w rozstrzyganiu skomplikowanych zagadek. W efekcie Turing zasugerował, że maszyny, bazując na dostępnych danych, mogą nauczyć się myśleć i podejmować decyzje w taki sam sposób jak ludzie. Tym samym otworzył przed nami drzwi do fascynującego świata, w którym możliwości AI wydają się nieograniczone.

Test Turinga

W 1936 roku Alan Turing stworzył maszynę abstrakcyjną służącą do wykonywania algorytmów, a w 1950 roku opracował „Imitation Game”, znaną dzisiaj jako słynny „test Turinga”. Celem badania było ustalenie, czy sprawdzana maszyna jest inteligentna. Podstawowym kryterium weryfikacji miała być możliwość odróżnienia komunikacji z nią od rozmowy prowadzonej z inną osobą. Uczestnik rozmawiał jednocześnie z człowiekiem i maszyną. W momencie, gdy nie umiał ocenić, która ze stron rozmowy jest sztuczną inteligencją, uznawano, że przeszła sprawdzian. Przez długi czas test ten był świetnym benchmarkiem prowadzonych prac nad rozwojem AI.

Z czasem jednak jego koncepcja zaczęła być uznawana za przestarzałą. Coraz więcej modeli językowych i maszyn jest w stanie skutecznie udawać człowieka, ale niekoniecznie świadczy to o ich poziomie inteligencji. Świetnym przykładem jest tutaj ChatGPT, który doskonale umie naśladować konkretne style pisania, jednak nie jest w stanie napisać samodzielnego, w pełni oryginalnego tekstu. Co więcej, często, gdy poprosimy go o wykonanie konkretnego zadania, wróci z treścią, która nie w pełni spełnia postawione przed nim warunki.

Dużo pomysłów, mało możliwości

Chociaż Turing był zafascynowany AI, to jednak przez wiele lat nie miał dostępu do pełnego spektrum możliwości technologicznych, które znamy dzisiaj. W połowie XX wieku komputery były, oględnie mówiąc, drogie. Dodatkowo, chociaż na prośbę człowieka były w stanie wykonać różne zadania, to nie zapisywały ich w swojej pamięci. W efekcie tylko wielkie firmy technologiczne i bogate uniwersytety mogły inwestować w badania w kierunku sztucznej inteligencji.

Ewolucja AI jest nierozłącznie związana z rozwojem komputerów i ich możliwości. Na początku nie wszystkie pomysły można było zrealizować przy pomocy dostępnej technologii. Wraz z upływem lat, komputery osobiste nie tylko stały się mocniejsze, ale również tańsze i szeroko dostępne, co sprzyjało intensyfikacji badań w obszarze AI. Przełomem w tym kontekście była konferencja w Dartmouth, która odbyła się w 1956 roku, podczas której oficjalnie ukuto i sformalizowano termin „sztucznej inteligencji”. W tym samym roku wystartowały dedykowane badania nad sztuczną inteligencją, rozpoczęte przez największe tuzy świata naukowego. Przewidywano, że już do 1980 roku uda się wytrenować sztuczną inteligencję w taki sposób, aby osiągnęła poziom człowieka. Chociaż nie udało się osiągnąć celu, to świat ujrzał innowacje, które umożliwiły kolejne postępy w tej dziedzinie. Były one oparte głównie na algorytmach i systemach reguł.

Kolejne osiągnięcia

Wtedy również zaczęły się pojawiać pierwsze modele językowe takie jak ELIZA – program, który analizował otrzymywane zdania i na ich podstawie budował pytania zwrotne. Mimo prostoty założeń, wypowiedzi ELIZY były tak przekonujące, że wielu ludzi miało wrażenie interakcji z prawdziwym człowiekiem. Istotne było też to, że z ELIZĄ można było konwersować w języku angielskim, a nie za pomocą kodu.

Obiecujące osiągnięcia naukowców przełożyły się na coraz większe inwestycje w badania nad sztuczną inteligencją. W latach 80-tych pojawiła się koncepcja „deep learning”, zakładająca, że komputery mogą uczyć się na podstawie zdobywanych doświadczeń. Koncepcję realizowano m.in. za pośrednictwem systemów eksperckich, które trenowano podczas rozmów z prawdziwymi ekspertami.

Program zadawał im pytania dotyczące ich dziedziny, np. zastosowań konkretnego produktu lub najczęściej występujących problemów. W momencie, gdy zdobył wiedzę na temat wszystkich możliwych sytuacji, był gotowy na dzielenie się nią z innymi osobami, np. klientami danej firmy. To już nie był prosty algorytm. To dynamiczny i wielowymiarowy system, który analizował zgromadzoną wiedzę w celu identyfikacji najlepszej odpowiedzi na dane pytanie. Sztuczna inteligencja zaczynała nie tylko przechowywać informacje, ale także interpretować je w kontekście konkretnych problemów.

Na podobnych założeniach bazował MYCIN – program, który analizował bazę danych i zadawał pytania, aby pomóc lekarzowi w doborze antybiotyków dla danego pacjenta. Jednak w praktyce nie został on nigdy wdrożony do powszechnego użytku z powodu ograniczeń technicznych ówczesnych komputerów, ale również podnoszonych wątpliwości etycznych związanych z diagnozowaniem i przepisywaniem leków przez sztuczną inteligencję.

I co teraz?

W latach 90-tych doprecyzowano funkcjonowanie sieci neuronowych, wtedy na popularności zyskał też „data mining”. W 1997 roku Garri Kasparow w końcu przegrał partię szachów ze sztuczną inteligencją, programem nazwanym „Deep Blue”. W 2012 roku Google opracował sieć neuronową, w ramach której 16 000 procesorów uczyło się rozpoznawać zdjęcia i filmy kotów. W 2014 roku Amazon wprowadził na rynek Alexę, inteligentnego asystenta głosowego. A w latach 2015-2017 systemy AI zaczęły poprawnie rozpoznawać zawartość zdjęć, identyfikować polecenia głosowe, wygrywać kolejne gry – i wszystko to robiły lepiej niż ludzie.

W 2018 roku doszło do lekkiego regresu wskutek skandalu związanego z Cambridge Analytica. Firma uzyskała nielegalny dostęp do szczegółowych danych użytkowników Facebooka, które zostały wykorzystane do opracowywania szczegółowych profili psychologicznych, a następnie targetowania kontrowersyjnych reklam politycznych. W efekcie wywarto wpływ na wybory prezydenckie w USA i referendum „brexitowe” w Wielkiej Brytanii.

To właśnie wtedy ludzkość zaczęła zwracać większą uwagę na ryzyka związane z dalszym rozwojem sztucznej inteligencji. Nie przeszkodziło to jednak w pokazaniu pełnego potencjału AI przy okazji pandemii COVID-19, gdy to dzięki tej technologii przyśpieszono analizę wielu tysięcy zbiorów danych i tym samym szybciej opracowano szczepionkę. A w 2022 roku udostępniono ChatGPT, który całkowicie zmienił zasady gry…

[1] https://ec.europa.eu/eurostat/statistics-explained/index.php?title=Use_of_artificial_intelligence_in_enterprises

Rodzaj treści: Artykuł,
Autor wpisu / Partner wpisu: