Sztuczna inteligencja pisze teksty i programuje

Sztuczna inteligencja pisze teksty i programuje

W tym tygodniu pojawiły się doniesienia o dwóch nowych wielkich programach sztucznej inteligencji, które używane będą do tworzenia tekstów i pisania oprogramowania. Pierwszy stworzony został przez izraelski startup AI21labs, drugi przez firmę AI.

Oba należą do grupy programów określanej jako NLP, Natural Language Processing czyli Przetwarzanie Języka Naturalnego, co ja raczej nazwałbym „posługiwaniem się językiem naturalnym”. Celem tego typu programów jest tworzenie sztucznej inteligencji, która potrafi komunikować się z nami w języku potocznym i robić z nim to samo, co robimy my, czyli rozmawiać z nami, tworzyć teksty, streszczać je itd. 

Wśród programów NLP największy rozgłos zyskał program GPT-3 zaprezentowany przez OpenAI w czerwcu ubiegłego roku. Był on o klasę lepszy niż o półtora roku wcześniejsza wersja GPT-2, a jego możliwości wynikały z dwóch rzeczy: miał 175 miliardów parametrów, czyli połączeń między wirtualnych neuronów o określonej „mocy” (120 razy więcej niż poprzednia wersja) co umożliwiło uczenie go na gigantycznej ilości informacji,  niemal całej angielskojęzycznej zawartości Internetu. Dzięki tej liczbie parametrów i wiedzy, która zdobył, jego twórcom udało stworzyć program, który jest wszechstronny a do nauczenia się i tworzenia nowych rzeczy wymaga jednego czy kilku przykładów, a nie tysięcy czy milionów, jak w zwykłych programach sztucznej inteligencji (tak zwany „one shot learning” albo „few shots learning).

Możliwości GPT-3 są zdumiewające, a niektóre z nich zaskoczyły nawet jego twórców. Program potrafi rozmawiać z nami w sposób niemal nieodróżnialny od człowieka, potrafi pisać teksty  – od sonetów w stylu Szekspira do wiadomości prasowych, również na tematy wymyślone,  streszczać teksty, proponować nowe pomysły na startupy, tworzyć zapisy chwytów gitarowych i pisać prosty kod na podstawie poleceń wydawanych w języku naturalnym (typu: narysuj okrąg). Chwytów gitarowych i co ważniejsze, pisania kodu, twórcy nie oczekiwali. Rozmaite zdumiewające możliwości kreatywnego działania GPT-3, w tym wiersze w stylu Szekspira, Emily Dickenson czy Allana Ginsberga albo prozę – w tym oczywiście Harrego Pottera – znajdziecie tutaj.

Stworzony przez Izraelczyków program Jurassic-1 jest podobno jeszcze potężniejszy niż GPT-3. Piszę „podobneo”, bo nie widziałem jeszcze porównań efektów a tylko porównanie parametrów. Ma trochę więcej, bo  178 miliardów połączeń, ale uczy się większymi jednostkami tekstu niż GPT-3, ma też większą pamięć tego, co aktualnie tworzy, więc jego teksty i rozmowy będą mogły być dłuższe. Jest też dostępny do zastosowań komercyjnych a użytkownicy mogą go „douczać” nowych rzeczy (na przykład obsługi klientów w specyficznej branży). Jest też dostępny za darmo dla każdego prywatnego użytkownika: jako rozszerzenie Wordtune do Chroma proponuje nam rozmaite warianty tego, co piszemy na stronach w Internecie (na razie tylko po angielsku). Piszecie post na Facebooku czy Instagramie, podświetlacie go i dostajecie za chwilkę sześć różnych, gramatycznie poprawnych innych jego wariantów. 

Jurassic-1 potrafi na przykład stworzyć opis produktu na podstawie listy jego charakterystyk, napisać tekst prościej albo streścić go w jednym zdaniu. Brian Walsh, autor newslettera o przyszłości portalu Axios, tak napisał o możliwościach programu, który streszczał jego newsletter: „Streszczenia nie były wystarczająco dobre, aby wyrzucić mnie z pracy, ale wystarczająco dobre, abym martwił się o tę możliwość w przyszłości”. Ale ile osób potrafiłoby napisać lepsze streszczenia?

Zaprezentowany przez OpenAI Codex jest pewną modyfikacją GPT-3, programem, który ma tworzyć kod  w kilkunastu językach programowania na podstawie poleceń wydawanych w języku naturalnym (po angielsku). Uczony był na ogromnej bazie tekstów i na miliardach wierszy kodu. Efektem jest coś w rodzaju programu tłumaczącego z angielskiego na „komputerowy”;  program, który umożliwia programowanie laikom, osobom, które żadnego języka programowania nie znają. Na razie wykorzystywany będzie  raczej przez zawodowych programistów do szybszego tworzenia fragmentów oprogramowania, które jest nietrudne ale pracochłonne.

Zdumiewające możliwości programów NLP, a chiński Wu Dao, dziesięciokrotnie większy od GPT 3 potrafi też tworzyć audio i obrazy, będą się szybko zwiększać. Google właśnie zapowiedział pokazanie w tym roku wszechstronnego programu o nazwie Pathways, który ma być w stanie robić miliony rozmaitych rzeczy. OpenAI pokazuje nowe warianty GPT co półtora roku, więc pewnie GPT 4 możemy się spodziewać za kilka miesięcy. Dzisiejsze programy swoją złożonością odbiegają jeszcze od złożoności ludzkiego mózgu, w którym połączeń jest jakieś 500 razy więcej niż ma ich GPT 3 (około 100 bilionów). Ale jeszcze dwie-trzy generacje dalej i ludzka liczba połączeń zostanie osiągnięta – i to już za kilka lat, a nie w odległej przyszłości.

 Gotów jestem się założyć, że przed końcem obecnej dekady stworzone zostaną programy, w których liczba parametrów – połączeń neuronów – będzie większa, niż w naszych mózgach.

To jeszcze – przypuszczalnie – nie będzie odpowiednik możliwości ludzkiego mózgu, który oprócz połączeń neuronów ma jeszcze komórki glejowe, a przekazywanie informacji między neuronami jest bardziej skomplikowane niż w programach sztucznej inteligencji. Programy NLP pokazują jednak, że sama wielkość, złożoność systemu jest w stanie dawać mu nowe, niezwykłe możliwości. Nie wiemy, czy stworzenie podobnie wszechstronnej jak nasza sztucznej inteligencji – tak zwanej Ogólnej Sztucznej Inteligencji – jest możliwe po prostu w drodze powiększania złożoności układów czy będzie potrzebna nowa architektura, zastępująca obecnie istniejącą. Są zwolennicy jednej i drugiej koncepcji. Kto ma rację przekonamy się w dosłownie najbliższych latach.

Jasne jest jedno: już w najbliższych latach zobaczymy sztuczną inteligencję, która pozbawi pracy miliony programistów, copy-writerów i dziennikarzy, nie mówiąc o pracownikach telefonicznej obsługi klienta. A może nawet i taką która pozbawi pracy część naukowców.

Osobom zainteresowanym polecam:
Arram Sabeti – GPT-3: An AI that’s eerily good at writing almost anything
Alberto Romero – A complete overview of GPT 3
Gwern Branwen – GPT-3 creative fiction




Leave a reply

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *