Chcę wraz z Wami zastanowić się nad trendami i przyszłością AI. Tą najbliższą przyszłością, choć i to stanowi dość karkołomne zadanie, bo jeszcze kilka lat temu nie przypuszczałem, że rok 2023 przyniesie tak szybki rozwój w tej dziedzinie. Skala zmian z jednej strony budzi podziw, z drugiej zmusza do zadawania sobie niełatwych pytań. Chwila refleksji może pomóc, aby zarówno pytania, jak i odpowiedzi było nieco bardziej wartościowe.
Aktualizacja z 20 listopada: O tym, jak dużo dzieje się w świecie AI, dobrze dowodzą wydarzenia z ostatnich dni. Sam Altman został zwolniony z OpenAI (twórca ChatGPT), a moim zdaniem historia wokół tego wydarzenia może doczekać się ekranizacji. Na ten moment Sam Altman ma propozycję budowania analogicznego zespołu w ramach Microsoftu i wielu pracowników OpenAI deklaruje gotowość do pójścia za nim.
Trzecia faza rozwoju IT
Na początek chciałbym nawiązać do podziału, który przytoczył Dharmesh Shah. Można wyróżnić trzy fazy w rozwoju technologii informatycznych:
Przywołane wyżej fazy wskazują na potencjał, jaki im towarzyszy. Bieżąca faza współpracy człowieka z AI ma nieść za sobą niespotykane dotąd zdolności poznawcze, które umożliwiłyby nam nie tylko dostęp do informacji, ale też ich lepsze zrozumienie i – w pewnym sensie – doświadczenie. To z kolei może zmieniać nasze myślenie o kształceniu i kontakcie z informacją w ogóle.
Gartner zwraca uwagę na inny ciekawy aspekt – w dobie AI technologie przestają być tylko narzędziami, a stają się współpracownikami. Kiedyś myśleliśmy, że taka zmiana będzie wiązała się z robotyzacją. Poniekąd jest to aktualne, ale „współpracownik” może przybierać niematerialną formę. Widać to po tym, jak niejednokrotnie formułujemy prompty. Nasze myślenie zmienia się z tego, co maszyna może zrobić, w kierunku tego, czym (kim!) może być.
Pójdźmy jednak krok dalej. To, że AI może wspierać człowieka, to zaledwie wierzchołek góry lodowej. Sztuczna inteligencja znacznie lepiej i wydajniej „dogada się” z komputerem czy inną sztuczną inteligencją, choćby przez fakt bazowania nie na języku naturalnym, ale wykorzystując bardziej optymalne metody. Co więcej, już teraz widzimy jak wydajne może być szkolenie sztucznej inteligencji na treściach wygenerowanych przez… sztuczną inteligencję.
Zakładam, że powstanie jeszcze wiele modeli, które będą bazować na dorobku dużych firm, które w pewnym sensie przetarły szlak. Jednocześnie koszt stworzenia tych modeli już jest nieporównywalnie mniejszy. W efekcie mogą być one bardziej wyspecjalizowane i dostępne.
To, z czym inżynierowie muszą sobie poradzić, to tzw. halucynacje. Duże modele językowe (LLM), do których zalicza się chociażby ChatGPT, to tacy yes-meni. Niemal zawsze twierdzą, że znają odpowiedź, choć tak naprawdę czasem zmyślają. W ChatGPT można ustawić dodatkowy prompt, który dodawany jest do każdego zapytania – ja ustawiłem, aby ChatGPT zawsze dodawał dopisek, na ile jest pewny swojej odpowiedzi. Zawsze jest pewny, choć czasem widzę, że pisze głupoty! A korzystam z najnowszej, płatnej wersji.
Jeśli pozbędziemy się halucynacji i tym samym wzrośnie wiarygodność tego, co sztuczna inteligencja zwraca, wzrośnie nie tylko nasze zadowolenie z pracy z nią. Pomyślmy, jaki potencjał to da sztucznym inteligencjom współpracującym ze sobą,..
Zagrożeń związanych ze sztuczną inteligencją jest bardzo dużo i stricte kwestii bezpieczeństwa AI planuję poświęcić osobny artykuł.
Tranzycja na trzech płaszczyznach
Co także już jest dostępne, choć na bazie moich eksperymentów działa średnio, to przejście ze statycznego do dynamicznego modelu działania AI. Co przez to rozumiem:
- W modelu statycznym odpowiedzi zwraca nam sieć, która jest raz nauczona i ew. douczana;
- W podejściu dynamicznym AI korzysta z bieżących zasobów internetu (lub jakiekolwiek innego zestawu danych, z którego bieżącej wersji AI będzie korzystać).
W obu modelach nastąpią usprawnienia, ale szczególnie przydatne będą te, które będą mogły zwracać odpowiedzi na bazie bieżących informacji. Da to niesamowity potencjał w połączeniu z automatyzacją procesów (RPA, ang. robotic process automation).
Równolegle widzimy inną tranzycję – zmienia się to, czym tak naprawdę jest prompt. To już nie tylko tekst, ale różne nośniki informacji: zdjęcia, arkusze kalkulacyjne, kod programistyczny, bazy danych etc. Przyszłość to bardziej interaktywne korzystanie z możliwości AI – konwersacje głosowe (też już dostępne), śledzenie wzroku, a może nawet interfejs mózg-komputer (Elon Musk zainicjował projekt Neuralink).
Trzecia zmiana – jeśli spojrzymy na AI jako szeroką grupę rozwiązań – może być słusznie uznana za złudną. Mam na myśli przejście z AI pracującego pasywnie do aktywnego. Wszak sztuczna inteligencja działająca w tle (aktywnie) wspomaga działanie Netflixa sugerującego nam filmy czy Tiktoka, który ma zatrzymać nas jak najdłużej, dzięki idealnie dopasowanej słodkości kotków i piesków (czy co tam lubimy ;)).
Jednak generatywna sztuczna inteligencja działa raczej pasywnie – musimy ręcznie wprowadzić prompt. Uważam, że to się zmieni i AI w jeszcze większym stopniu będzie działać aktywnie. Będzie przewidywać czego potrzebujemy, a także w tle „załatwiać” za nas pewne sprawy.
Zatrzymajmy się jeszcze przy koncepcji wypływającej ze wspomnianej wyżej trzeciej tranzycji: z pasywnej wersji AI do aktywnej. Przyszłość może wiązać się ze sztuczną inteligencją spersonalizowaną nie pod konkretne zastosowanie, ale pod konkretnego użytkownika i jego potrzeby. Tak rozumiane AI można by porównać do osobistego asystenta o ogromnej wiedzy i… cierpliwości. Moglibyśmy powierzać mu najbardziej żmudne i powtarzalne zadania, ale też liczyć na bardzo spersonalizowane odpowiedzi. Przyszłość to może być czas agentów AI.
W najbardziej prawdopodobnej formie może to być jeszcze bardziej zaawansowany Asystent Google, Siri od Apple czy Amazon Alexa. Już z resztą słyszeliśmy nagranie od Google, gdzie asystent w naszym imieniu umawia wizytę i brzmi zupełnie jak człowiek. Wartym odnotowania procesem jest tworzenie układów scalonych zapewniające wydajne działanie sieci neuronowych bezpośrednio na naszym telefonie. Zatem ów osobisty agent AI nie musiałby przekazywać do chmury żadnych informacji na nasz temat.
To, co napiszę teraz, może wzbudzać uśmiech politowania: być może popularne będą konwersacje de facto między sztucznymi inteligencjami. Piszemy maila korzystając z AI, a następnie AI odbiorcy opracowuje jego streszczenie i proponuje odpowiedź. My tylko klikamy wyślij.
„Trzeci korzysta”? Konkurencja między AI
Tym, co oprócz zastosowania najbardziej różni poszczególne modele i to póki co się nie zmieni, to dane, którymi są one zasilone, a także wskaźniki wydajnościowe: liczba parametrów, moc obliczeniowa i stopnień optymalizacji. To nie są parametry zbyt nośne marketingowo, a OpenAI po ogromnej furorze, jaką zrobił ChatGPT w bezpłatnej wersji, nie budzi już takich emocji. Zakładam zatem, że będzie to czas konkurowania o to, kto który model wdroży do swoich aplikacji i zrobi to lepiej. AI będzie zatem w dużym stopniu wartością dodaną do istniejących rozwiązań.
I tu dochodzimy do być może najpewniejszej predykcji. Zakładam, że sztuczna inteligencja zleje się z naszym życiem i będzie komponentem (nierzadko kluczowym) rozwiązań, które znamy i poznamy. Obecne rozwiązania, takie jak ChatGPT czy Midjourney zyskają nowe interfejsy – niejako opakowania – zarówno własne, jak i w postaci aplikacji firm trzecich. To już widać, ale prawdziwa zmiana się zacznie, gdy AI nie będzie szumnym hasłem, a oczywistą funkcjonalnością.
Trzy konkretne przykłady:
- Microsoft ze swoim Copilotem zintegrowanym z Windowsem i Office’m;
- Adobe, który dzięki Firefly zintegrowanym z aplikacjami Creative Cloud na zawsze zmieni(a) sposób tworzenia;
- Hubspot, który dzięki analizie danych wpływa na marketing i sprzedaż.
Niebawem być może jeszcze głębsze zmiany dotkną wyszukiwarki. Póki co widzimy chat zintegrowany z Bingiem. Ale być może Apple lub Google zaproponują swoje inteligentne wyszukiwarki, które obejmą swoim działaniem i nasze dane (na telefonie mamy wszak kawał naszego życia), i internet, a znając nas dostarczą jeszcze trafniejsze wyniki. (To, że Google już korzysta ze sztucznej inteligencji do uszeregowania wyników wyszukiwania, jest dla mnie oczywiste. Każde nasze kliknięcie i pozostanie lub wyjście ze strony uczy algorytm.)
Moim zdaniem najbliższe miesiące to będzie czas pewnego rozczarowania i wycofania – coraz bardziej zdajemy sobie sprawę, jakie są póki co ograniczenia sztucznej inteligencji. Warto jednak być na bieżąco i rozwijać kompetencje związane z AI (firmy, mówię też do Was!).
Trzy słowa na koniec
W osobnym wpisie napisałem co nieco o rynku pracy w dobie AI. Minęły około 3 miesiące; to przy obecnym tempie sporo, jednak przesłanie tego artykułu pozostaje aktualne. Zachęcam do lektury.
Przed nami ciekawe miesiące i lata, które będą zachwycać i budzić strach. Mam nadzieję, że ten artykuł pomógł Ci nieco lepiej rozeznać się w trendach, które się rysują.
Co będzie np. w 2033 roku? Można gdybać, ale z dużym prawdopodobieństwem będziemy w błędzie. Zapewne tak jak my kształtowaliśmy AI, to teraz AI będzie kształtować nas, w ograniczonym stopniu oczywiście.
Zapraszam do dzielenia się Waszymi przemyśleniami w komentarzach. Zachęcam też do subskrypcji newslettera, bo AI jeszcze nie raz pojawi się na stronach mojego bloga.