Obrazy nie z tego świata
Obrazy nie z tego świata

Elon Musk przewiduje,  że już za 7 lat sztuczna inteligencja osiągnie poziom ludzki, czyli stanie się tak zwaną ogólną sztuczną inteligencją, AGI (Artificial General Intelligence). Musk jest znany ze swojego ogromnego optymizmu i systematycznie myli się co do terminów – ale prędzej czy później jego przewidywania się sprawdzają. 

Kolejne osiągnięcia sztucznej inteligencji sugerują, że może nie omyli się tak bardzo. Google zaprezentował właśnie program generujący obrazy na podstawie opisów nazwany Imagen. Program jest znacząco lepszy od przedstawionego parę miesięcy temu przez firmę DeepMind DALL-E, który wydawał się absolutnie znakomity. Google pokazał, że może zrobić coś jeszcze lepszego.

Programy „tekst na obraz” tworzą rozmaite obrazy na podstawie dowolnych krótkich poleceń, również całkowicie absurdalnych. Mogą to być obrazy impresjonistyczne i mogą być fotorealistyczne i takie Google pokazał, bo są najbardziej spektakularne. To, co widać na poniższym zdjęciu, to przykłady takich obrazów, stworzonych przez Imagen na podstawie krótkich poleceń typu  „Pies rasy corgi w okularach przeciwsłonecznych i kapeluszu plażowym na rowerze na Times Square”, „Niebieska zamszowa torebka ze skomplikowanym złotym wzorem i rączką przyozdobioną perłami i rubinami”.

Google nie ujawnił, czy tak dobre obrazy powstają na podstawie każdego polecenia czy też te zaprezentowane zostały wybrane spośród mniej doskonałych. Ale nawet jeśli zostały wybrane, to przecież i u artystów-ludzi nie wszystkie dzieła są równie dobre. Te publicznie pokazane robią wrażenie nie tylko swoim realizmem ale i wiernością poleceniom – wydaje się, że nie ma rzeczy, której Imogen nie potrafiłby przedstawić.

Imogen, tak jak i inne programy tego rodzaju, uczony był na tysiącach par opis-obrazek, ale jak widać, nauczył się robić nie warianty tego, co poznał tylko dowolne obrazy na podstawie dowolnych opisów. Innymi słowy – nauczył się tworzyć. Ogranicza go tylko pomysłowość ludzi, tworzących opisy obrazów, ale i tutaj będzie ludzi mogła wyręczać sztuczna inteligencja, choćby programy typu GPT-3, które poprosimy o „tworzenie opisów absurdalnych obrazów”.

Są na pewno artyści, którzy potrafią tworzyć podobne, pewnie czasem lepsze i ciekawsze obrazy niż te, które tworzy Imogen. Ale takich ludzi jest ilu? Może 1 na milion. Czyli sztuczna inteligencja jest w tej dziedzinie lepsza niż 99,9999% ludzi. Co zresztą jest regułą: jeśli ograniczona do jakiejś dziedziny sztuczna inteligencja coś robi – gra w grę, tworzy wiersze, pisze kod komputerowy – to jest w tym lepsza niż ogromna większość ludzi. Sztuczna inteligencja, które będzie prowadziła samochód, będzie lepsza niż prawie wszyscy albo wszyscy kierowcy. 

 Praktyczne zastosowanie programu do tworzenie obrazów z opisów jest oczywiste: tworzenie dowolnych ilustracji do dowolnych tekstów – bez obaw o naruszenie prywatności czy praw autorskich.

Konsekwencje negatywne też są oczywiste: możliwość tworzenia całkowicie realistycznych obrazów sytuacji nieistniejących typu „Prezydent Zełenski katujący dziecko” czy „Zanieczyszczenie Wisły odpadami przemysłowymi”.

Zaledwie 10 lat temu sztuczna inteligencja nauczyła się rozpoznawać w większości przypadków zdjęcia kotów i psów. Dziś potrafi zrobić obraz psa wpatrującego się w swoje oblicze w lustrze, gdzie widzi kota.

Jeśli pomyślimy, co będzie w stanie tworzyć sztuczna inteligencja za 10 lat, to przepowiednia Elona Muska zaczyna wydawać się całkiem realna.

Więcej obrazków znajdziecie tutaj  i tutaj.

Jak będzie myśleć sztuczna inteligencja w 2022 roku
Jak będzie myśleć sztuczna inteligencja w 2022 roku

Sztuczna inteligencja, którą znamy dzisiaj z naszych smartfonów, wyszukiwarek, z Amazona czy Netflixa i która wydaje się istnieć „od zawsze” ma dopiero 10 lat. To w roku 2012 zespół pod kierunkiem Geoffreya Hintona pokazał, jak znakomite rezultaty daje zastosowanie pewnego rodzaju sieci neuronowych do rozpoznawania obrazów i uruchomił lawinę badań i zastosowań. 

Jej możliwości, które jeszcze w roku 2012 wydawałyby się nam nieprawdopodobne, dzisiaj są dla nas oczywiste. Co roku czymś przez chwilę zdumiewa, po czym uznajemy jej kolejne osiągnięcia za oczywiste.

Tak będzie również w nadchodzącym roku. Nie potrafię oczywiście przewidzieć rzeczy nieoczekiwanych, które powstaną, ponieważ ktoś wpadnie na nowy zupełnie pomysł, ale mogę napisać o rzeczach, których zapowiedzi już istnieją. A jeśli coś ciekawego, użytecznego w sztucznej inteligencji istnieje, to najprawdopodobniej powstaną nowe, lepsze tego wersje. Oto pięć moich przewidywań tego, co wydaje mi się prawdopodobne i ciekawe.

I. Rozmowy z komputerami

Najciekawsze dla mnie są badania nad tzw. NLP, Natural Language Processing czyli przetwarzaniem naturalnej mowy, a inaczej to formułując – nad uczeniem sztucznej inteligencji wszechstronnego wypowiadania się. Prawie dwa lata temu firma OpenAI przedstawiła największą wówczas wersję programu nazwanego GPT-3, który potrafił w niemal ludzki sposób rozmawiać, pisać teksty na zadane tematy w zadanym stylu, a nawet jak się okazało – przekładać polecenia potocznego języka na kod komputerowy. GPT-3 miał 175 mld połączeń między swoimi „neuronami”,  od tego czasu powstały systemy, z większą liczbą połączeń, w tym chiński WuDao 2.0, który ma ich ponad półtora biliona – zaledwie 60 razy mniej połączeń, niż ma ich ludzki mózg. Co ciekawsze, zostały stworzone również systemy, które mają podobne możliwości rozmawiania, pisania, streszczania tekstów przy nawet dwudziestokrotnie mniejszej liczbie połączeń

Myślę, że w roku 2022 zostanie pokazany, najprawdopodobniej przez OpenAI albo DeepMind taki system, który będzie bliski zdania testu Turinga albo ten test zda – to znaczy, że nie będziemy potrafili powiedzieć, czy rozmawiamy z człowiekiem czy komputerem. Będzie to system, który będzie się w stanie uczyć na bieżąco z nowych informacji, a nie tylko korzystać z informacji raz wyuczonych (już takie systemy NLP były tworzone). Wbrew temu, czego oczekiwał Turing, system nie będzie miał świadomości, będzie po prostu bardzo sprawnie potrafił formułować zdania i teksty. Będzie w stanie napisać dłuższy tekst dziennikarski albo krótkie opowiadanie, zdać egzaminy pisemne z każdej niemal dziedziny lepiej niż zdają je ludzie. Zresztą już dzisiaj oparty na GPT-3 program WebGPT osiąga lepsze wyniki w odpowiadaniu na pytania wymagające syntezowania informacji z różnych źródeł.

II. AI w badaniach naukowych

Drugi, bardzo interesujący kierunek rozwoju sztucznej inteligencji to jej wykorzystanie do badań naukowych. Przykładem stosowanie AI do badań naukowych był zaprezentowany pod koniec 2020 przez firmę DeepMind program AlphaFold, który potrafił znacznie szybciej niż dotychczasowe metody pokazywać kształt ludzkich białek.

W ubiegłym roku wyróżniłbym dwa osiągnięcia AI w nauce. Po pierwsze naukowcy z Facebooka (tak!), który wskazywał, jakie kombinacje istniejących leków mogą być stosowane w leczeniu rozmaitych, trudnych do leczenia chorób. Po drugie, co jeszcze ciekawsze, naukowcy Deep Mind  stworzyli coś w rodzaju sztucznego matematyka: program, który wymyślił twierdzenie matematyczne – jeszcze jednak nie udowodnione –  i który przybliżył się do udowodnienie innego twierdzenia – czyli program, który zajmuje się czystą matematyką. pokrewieństwo między dwiema gałęziami matematyki. Myślę, że w bieżącym roku zobaczymy więcej przykładów wykorzystania AI do tworzenia hipotez i wskazywania rozwiązań problemów, nad którymi męczą się naukowcy różnych dziedzin nauki. 

III. Autonomiczne samochody

Trzeci ciekawy i praktyczny kierunek rozwoju AI, który powinniśmy obserwować w tym roku, to samochody autonomiczne. Nie oczekuję tutaj jakiegoś gigantycznego skoku ich możliwości, ale myślę, że od testowych projektów komercyjnych, przeprowadzanych na ograniczonych obszarach miast albo ograniczonych do godzin nocnych, przejdziemy do wykorzystania robotaksówek na terenie całych miast całodobowo. Oczywiście, tylko w niektórych miastach w Chinach i USA, gdzie takie komercyjne, czyli płatne, taksówki już obecnie jeżdżą. W Europie będzie natomiast coraz więcej miejsc, gdzie będą prowadzone testy autonomicznych samochodów, również ciężarowych. Czas, w którym przybliża się zastąpienie taksówkarzy i kierowców samochodów dostawczych oprogramowaniem sztucznej inteligencji przybliża się i rok 2022 pokaże bez wątpliwości, że jedni i drudzy mogą być zastępowani.

IV. Roboty

Czwarte zjawisko, któremu warto się uważnie przyglądać w tym roku, to roboty. Nie tylko dlatego, że zdobywają coraz lepszą zdolność naśladowania naszej mimiki, jak pokazała styczniowa publiczna prezentacja robota AMECA na wystawie CES w Las Vegas. Głównym powodem jest zapowiedź Elona Muska, że Tesla w tym roku pokaże humanoidalnego robota, który będzie w stanie wykonywać różne prace, zastępując ludzi. Nie jestem pewien, czy Tesli się uda pokazać robota w tym roku, bo Musk na ogół zbyt optymistycznie widzi czas prezentowania czy produkowania nowości, ale nawet jeśli robot Tesli będzie opóźniony o rok, to i tak sama zapowiedź spowoduje większe zaangażowanie innych firm konkurencyjnych, takich jak Engineered Arts od AMEKI czy Boston Dynamics, znanych z psa-robota. Wszechstronne, humanoidalne i obdarzone sztuczną inteligencją roboty pokażą się w tym roku, chociaż na pewno będą jeszcze wysoce niedoskonałe – ale w ciągu 5 lat ich mimika będzie nieodróżnialna od ludzkiej, a możliwości konwersacji będą na poziomie człowieka. Dlaczego nie miałyby zastąpić recepcjonistek?

V. Wszechstronna inteligencja

Wreszcie piąta, najważniejsza być może prognoza. Google pracuje nad wszechstronną sztuczną inteligencją, która będzie w stanie wykonywać znakomicie mnóstwo różnych zadań i wykonywać nowe na podstawie kilku zaledwie przykładów. Innymi słowy, Google pracuje nad systemem bliskim AGI, inteligencji ogólnej, bliskiej ludzkiej. Mówił o tym na konferencji TED w czerwcu ubiegłego roku Jeff Dean, szef programu sztucznej inteligencji w Google. Jeśli w tym roku Google pokaże pierwsze rezultaty swoich prac, a myślę, że tak się stanie, bo inaczej Dean by o tym nie mówił publicznie, wówczas zobaczymy, jak bardzo blisko jesteśmy stworzenia dorównującej albo przewyższającej nas inteligencji.

Śledząc od 6 lat rozwój sztucznej inteligencji, coraz bardziej jestem przekonany, że podana kilka lat temu przez Raya Kurtzweila data roku 2027 jako roku, w którym stworzona zostanie AGI, jest realna, a być może nastąpi to jeszcze szybciej. Połączenie coraz potężniejszych i bardziej wyspecjalizowanych procesorów, gigantycznych baz danych, nowych rodzajów oprogramowania z rywalizacją firm i wyścigiem USA i Chin prowadzi do tak szybkiego postępu, że przez pięć lat zmiany możliwości AI dorównają tym, które zaszły w ubiegłych dziesięciu. A dziesięć lat temu chodziło głównie o to, jak dobrze sztuczna inteligencja odróżnia zdjęcia psów od zdjęć kotów…

Robotaksówki już w San Francisco
Robotaksówki już w San Francisco

Robotaksówki, czyli samochody autonomiczne, którymi kieruje program sztucznej inteligencji, otrzymały zezwolenie na przewożenie pasażerów w San Francisco.

Należaca do General Motors firma Cruise uzyskała zezwolenie z miejskiego Department of Motor Vehicles, aby pasażerów przewoziły taksówki bez ubezpieczającego kierowcy, w pełni autonomiczne. Na razie przewozy mają ograniczenia: mogą się odbywać tylko w godzinach 22-6, z szybkością maksymalną 50 km/godz, ale niezależnie od pogody, nawet w deszczu i mgle. 

Taksówki Cruise miały pojawić się w San Francisco już w 2020 roku, COVID wszystko opóźnił.

Zezwolenie na przewożenie pasażerów otrzymała również należąca do Google firma Waymo, ale nie na samochody całkowicie autonomiczne, ale takie, w których jest dostępny kierowca ubezpieczający, który może przejmować kierowanie pojazdem, gdy sztuczna inteligencja sobie z tym nie radzi. Waymo od trzech lat przewozi już pasażerów w pełni autonomicznymi taksówkami, ale w Phoenix w Arizonie. San Francisco jest dla samochodów autonomicznych dużo trudniejsze, miasto z wąskimi ulicami, idącymi w górę i w dół, z tramwajami i mnóstwem pieszych.

Kalifornia jest najważniejszym stanem amerykańskim, w którym prowadzone są testy samochodów autonomicznych. Zezwolenie na próby na drogach publicznych otrzymało w Kaliforni 55 różnych firm, nie tylko amerykańskich, ale również chińskich i europejskich. W ubiegłym roku ich kierowane sztuczną inteligencją pojazdy przejechały  ponad 3 mln kilometrów, z tego na Cruise i Waymo przypadło dwie trzecie. 

Zezwolenia dla samochodów autonomicznych mają cztery poziomy: przeprowadzanie testów przy obecności kierowcy ubezpieczającego, przeprowadzanie testów z pasażerami, przy obecności kierowcy ubezpieczającego, przewożenie pasażerów bez obecności kierowcy i przewożenie pasażerów płatnych, bez obecności kierowcy. Na razie tylko  Cruise otrzymał te najwyższe zezwolenie, ale w przyszłym roku dojdą następne firmy.

Próby z pojazdami autonomicznymi nie ograniczają się tylko do samochodów osobowych. Testowane są autonomiczne ciężarówki, samochody dostawcze i autobusy.

Chińska firma TuSimple zamierza rozpocząć jeszcze w tym roku w USA testy ciężarówek bez obecności kierowcy w kabinie, firma Embark planuje takie próby na rok 2023 a na rok 2024 rozpoczęcie usług komercyjnych. Szwedzka firma Eiride prowadzi w Europie testy swoich ciężarówek od 2019 roku, w tym roku zacznie testy w USA. Ciężarówki Einride nie mają w ogóle kabiny kierowcy, kierowca zabezpieczający może przejmować kierowanie ciężarówką zdalnie.

Wszystkie te próby mają zapewnić pojazdom tak zwaną autonomię czwartego poziomu, to znaczy taką, gdzie pojazdy kierowane są wyłącznie sztuczną inteligencją, ale na określonym obszarze albo w określonych warunkach (pogodowych, drogowych). Dla znacznej części ruchu samochodowego to całkowicie wystarczające – taksówki muszą umieć poruszać się  po jednym tylko mieście, ciężarówki mogą znać tylko jedną trasę. Na razie programy kierujące samochodami muszą być uczone osobno każdej nowej lokalizacji, dlatego Waymo musi swojej taksówki uczyć od nowa w Kaliforni, chociaż dobrze dają sobie radę w Arizonie. Na razie firmom udaje się ten czwarty poziom uzyskiwać w bardzo ograniczonym geograficznie zakresie. 

Poziom piąty autonomicznych pojazdów, czyli kierowanie samochodem w każdych warunkach, równie dobrze jak robią to ludzie (albo lepiej), jest na razie dla programów AI nieosiągalny, ale i on nadejdzie. Wysiłki Tesli idą dokładnie w tym kierunku, aby samochody potrafiły sobie dać radę w każdej sytuacji – ale Tesla wykorzystuje do uczenia programu dane pochodzące z normalnych samochodów, jeżdżących w najróżniejszych miejscach i w najróżniejszych warunkach. Ostatnie aktualizacja oprogramowania Tesli pokazała, że firma rzeczywiście się do tego celu znacznie przybliżyła (patrz video poniżej).

Pięć lat temu przeprowadzono badanie wśród kilkuset ekspertów od sztucznej inteligencji, pytając ich o zastępowanie pracy ludzkiej przez oprogramowanie AI. Zastąpienie kierowców ciężarówek przez sztuczną inteligencję przewidywano średnio na rok 2027. Dziś widać, że skoro pierwsze taksówki już przewożą pasażerów, to  pierwsze ciężarówki bez kierowców wyruszą w komercyjne trasy znacznie wcześniej.

A jeszcze w 2004 roku dwóch profesorów, Frank Levy z MIT i Richard Murnane z Harvardu, pisało, że prowadzenie samochodów jest takim rodzajem działania, które maszynom będzie najtrudniej opanować. „Gdy kierowca skręca w lewo, napotyka na ścianę obrazów i dźwięków generowanych przez nadjeżdżające samochody, światła, witryny sklepowe, billboardy, drzewa i policjanta. Korzystając ze swojej wiedzy, musi oszacować rozmiar i położenie każdego z tych obiektów oraz prawdopodobieństwo, że stanowią one zagrożenie…. Wyartykułowanie tej wiedzy i osadzenie jej w oprogramowaniu dla wszystkich, poza wysoce ustrukturyzowanymi sytuacjami to obecnie niezwykle trudne zadanie”.

Kiedy autonomiczne samochody zastąpią kierowców indywidualnych? Gdy tylko firmy ubezpieczeniowe zorientują się, że wypadków powodowanych przez programy AI jest znacznie mniej niż wypadków powodowanych przez ludzi i podniosą drastycznie stawki ubezpieczeniowe. Myślę, że jeszcze przed upływem dekady.

Sztuczna inteligencja pisze teksty i programuje
Sztuczna inteligencja pisze teksty i programuje

W tym tygodniu pojawiły się doniesienia o dwóch nowych wielkich programach sztucznej inteligencji, które używane będą do tworzenia tekstów i pisania oprogramowania. Pierwszy stworzony został przez izraelski startup AI21labs, drugi przez firmę AI.

Oba należą do grupy programów określanej jako NLP, Natural Language Processing czyli Przetwarzanie Języka Naturalnego, co ja raczej nazwałbym „posługiwaniem się językiem naturalnym”. Celem tego typu programów jest tworzenie sztucznej inteligencji, która potrafi komunikować się z nami w języku potocznym i robić z nim to samo, co robimy my, czyli rozmawiać z nami, tworzyć teksty, streszczać je itd. 

Wśród programów NLP największy rozgłos zyskał program GPT-3 zaprezentowany przez OpenAI w czerwcu ubiegłego roku. Był on o klasę lepszy niż o półtora roku wcześniejsza wersja GPT-2, a jego możliwości wynikały z dwóch rzeczy: miał 175 miliardów parametrów, czyli połączeń między wirtualnych neuronów o określonej „mocy” (120 razy więcej niż poprzednia wersja) co umożliwiło uczenie go na gigantycznej ilości informacji,  niemal całej angielskojęzycznej zawartości Internetu. Dzięki tej liczbie parametrów i wiedzy, która zdobył, jego twórcom udało stworzyć program, który jest wszechstronny a do nauczenia się i tworzenia nowych rzeczy wymaga jednego czy kilku przykładów, a nie tysięcy czy milionów, jak w zwykłych programach sztucznej inteligencji (tak zwany „one shot learning” albo „few shots learning).

Możliwości GPT-3 są zdumiewające, a niektóre z nich zaskoczyły nawet jego twórców. Program potrafi rozmawiać z nami w sposób niemal nieodróżnialny od człowieka, potrafi pisać teksty  – od sonetów w stylu Szekspira do wiadomości prasowych, również na tematy wymyślone,  streszczać teksty, proponować nowe pomysły na startupy, tworzyć zapisy chwytów gitarowych i pisać prosty kod na podstawie poleceń wydawanych w języku naturalnym (typu: narysuj okrąg). Chwytów gitarowych i co ważniejsze, pisania kodu, twórcy nie oczekiwali. Rozmaite zdumiewające możliwości kreatywnego działania GPT-3, w tym wiersze w stylu Szekspira, Emily Dickenson czy Allana Ginsberga albo prozę – w tym oczywiście Harrego Pottera – znajdziecie tutaj.

Stworzony przez Izraelczyków program Jurassic-1 jest podobno jeszcze potężniejszy niż GPT-3. Piszę „podobneo”, bo nie widziałem jeszcze porównań efektów a tylko porównanie parametrów. Ma trochę więcej, bo  178 miliardów połączeń, ale uczy się większymi jednostkami tekstu niż GPT-3, ma też większą pamięć tego, co aktualnie tworzy, więc jego teksty i rozmowy będą mogły być dłuższe. Jest też dostępny do zastosowań komercyjnych a użytkownicy mogą go „douczać” nowych rzeczy (na przykład obsługi klientów w specyficznej branży). Jest też dostępny za darmo dla każdego prywatnego użytkownika: jako rozszerzenie Wordtune do Chroma proponuje nam rozmaite warianty tego, co piszemy na stronach w Internecie (na razie tylko po angielsku). Piszecie post na Facebooku czy Instagramie, podświetlacie go i dostajecie za chwilkę sześć różnych, gramatycznie poprawnych innych jego wariantów. 

Jurassic-1 potrafi na przykład stworzyć opis produktu na podstawie listy jego charakterystyk, napisać tekst prościej albo streścić go w jednym zdaniu. Brian Walsh, autor newslettera o przyszłości portalu Axios, tak napisał o możliwościach programu, który streszczał jego newsletter: „Streszczenia nie były wystarczająco dobre, aby wyrzucić mnie z pracy, ale wystarczająco dobre, abym martwił się o tę możliwość w przyszłości”. Ale ile osób potrafiłoby napisać lepsze streszczenia?

Zaprezentowany przez OpenAI Codex jest pewną modyfikacją GPT-3, programem, który ma tworzyć kod  w kilkunastu językach programowania na podstawie poleceń wydawanych w języku naturalnym (po angielsku). Uczony był na ogromnej bazie tekstów i na miliardach wierszy kodu. Efektem jest coś w rodzaju programu tłumaczącego z angielskiego na „komputerowy”;  program, który umożliwia programowanie laikom, osobom, które żadnego języka programowania nie znają. Na razie wykorzystywany będzie  raczej przez zawodowych programistów do szybszego tworzenia fragmentów oprogramowania, które jest nietrudne ale pracochłonne.

Zdumiewające możliwości programów NLP, a chiński Wu Dao, dziesięciokrotnie większy od GPT 3 potrafi też tworzyć audio i obrazy, będą się szybko zwiększać. Google właśnie zapowiedział pokazanie w tym roku wszechstronnego programu o nazwie Pathways, który ma być w stanie robić miliony rozmaitych rzeczy. OpenAI pokazuje nowe warianty GPT co półtora roku, więc pewnie GPT 4 możemy się spodziewać za kilka miesięcy. Dzisiejsze programy swoją złożonością odbiegają jeszcze od złożoności ludzkiego mózgu, w którym połączeń jest jakieś 500 razy więcej niż ma ich GPT 3 (około 100 bilionów). Ale jeszcze dwie-trzy generacje dalej i ludzka liczba połączeń zostanie osiągnięta – i to już za kilka lat, a nie w odległej przyszłości.

 Gotów jestem się założyć, że przed końcem obecnej dekady stworzone zostaną programy, w których liczba parametrów – połączeń neuronów – będzie większa, niż w naszych mózgach.

To jeszcze – przypuszczalnie – nie będzie odpowiednik możliwości ludzkiego mózgu, który oprócz połączeń neuronów ma jeszcze komórki glejowe, a przekazywanie informacji między neuronami jest bardziej skomplikowane niż w programach sztucznej inteligencji. Programy NLP pokazują jednak, że sama wielkość, złożoność systemu jest w stanie dawać mu nowe, niezwykłe możliwości. Nie wiemy, czy stworzenie podobnie wszechstronnej jak nasza sztucznej inteligencji – tak zwanej Ogólnej Sztucznej Inteligencji – jest możliwe po prostu w drodze powiększania złożoności układów czy będzie potrzebna nowa architektura, zastępująca obecnie istniejącą. Są zwolennicy jednej i drugiej koncepcji. Kto ma rację przekonamy się w dosłownie najbliższych latach.

Jasne jest jedno: już w najbliższych latach zobaczymy sztuczną inteligencję, która pozbawi pracy miliony programistów, copy-writerów i dziennikarzy, nie mówiąc o pracownikach telefonicznej obsługi klienta. A może nawet i taką która pozbawi pracy część naukowców.

Osobom zainteresowanym polecam:
Arram Sabeti – GPT-3: An AI that’s eerily good at writing almost anything
Alberto Romero – A complete overview of GPT 3
Gwern Branwen – GPT-3 creative fiction