Wywiady

AI w branży IT — czy wyprze pracę ludzi? Wywiad z pracownikami Detable

Programistka pisze kod na laptopie

Jakie są największe plusy, a jakie minusy korzystania z AI w pracy w IT? W jakich sytuacjach korzystanie z AI jest wręcz wskazane i wskazuje na kreatywność, a w jakich może zostać odebrane jako „pójście na łatwiznę”? I wreszcie: czy sztuczna inteligencja zastąpi naszą pracę? O tym rozmawiamy z Kasią, Piotrem i Michałem z Detable.

Jakie było Wasze pierwsze zetknięcie ze sztuczną inteligencją? Jakie wrażenie zrobił na Was ChatGPT przy pierwszym użyciu?

Kasia Mazur: Pierwszy raz miałam okazję pobawić się ChatGPT i sprawdzić jego możliwości jesienią 2022, z koleżanką, która również jest developerem. Wrzucałyśmy mu proste zadania, by napisał różne fragmenty kodu i narzekałyśmy, że „zaraz” zostaniemy bezrobotne, bo AI nas zastąpi. Na szczęście pracę mamy, ale plan awaryjny też 😉 

Piotr Greniewski: Pracę w Detable łączę z pracą akademicką. Z ChatGPT prowadzę zajęcia na europejskiej uczelni w Warszawie. Wykład z ćwiczeniami oraz projekt zespołowy. W ramach wykładu prezentuję różne możliwości interakcji z ChatGPT. W ramach ćwiczeń studenci realizują wybrane tematy. W ramach projektu zespołowego studenci mają zaprojektować i uruchomić aplikację: od wymagań, przez projekt, implementację, testy i dokumentację.

Michał Bylica: Pierwszy raz z ChatGPT zetknąłem się zaraz po jego opublikowaniu przez firmę OpenAI pod koniec 2022 roku. Kolega z branży, który jest zapalonym fanem nowych technologii, założył konto i razem testowaliśmy możliwości tego przełomowego narzędzia. Pamiętam, że wtedy też ze względu na specyfikę mojej pracy, za wszelką cenę starałem się wywołać w ChatGPT jakieś błędy, podając w zapytaniach sprzeczne informacje czy też wzajemnie wykluczającą się logikę. Odpowiedzi Chata wydawały się dosyć logiczne i zrobiły na mnie spore wrażenie. Sprawdzałem też, czy ChatGPT na podstawie zebranych informacji wyda własną opinię o osobie, firmie czy jakimś temacie. Nie udało mi się tego wywołać. Chat zazwyczaj odsyłał do zebrania informacji z innych źródeł i stronił od wydania opinii czy oceny. 

Moja kolejna styczność z ChatGPT wynikała z potrzeby pozyskania informacji podatkowych. Gdy nie mogłem znaleźć jednoznacznych informacji o interesujących mnie rozliczeniach, stwierdziłem, że może warto zapytać Chata. Na początku trochę nie wierzyłem, że Chat może rozwiązać mój problem, natomiast po tym jak sprecyzowałem zapytania, a następnie zweryfikowałem odpowiedzi z odpowiednimi dokumentami prawnymi i informacjami z artykułów prawniczych, ku mojemu zaskoczeniu okazało się, że ChatGPT przedstawił prawidłowe informacje w temacie, nad którym spędziłem bezskutecznie bardzo dużo czasu.

A teraz? Czy w Waszej codziennej pracy AI się przydaje? Jeśli tak, to w jaki sposób?

Kasia Mazur: W moim przypadku są to sytuacje bardzo ogólne — na co dzień wykorzystuję AI jako szybką i podręczną wyszukiwarkę. Zamiast sprawdzać kilka różnych stron lub przeglądać dokumentację, wpisuję pytanie i po kilku sekundach dostaję najbardziej pasujące odpowiedzi. Nie zawsze jestem pewna, czy dobrze pamiętam składnię jakiegoś polecenia i ChatGPT jest najszybszą opcją na upewnienie się. Często też pomocny jest w szczegółowej analizie błędu i podpowiadaniu poprawek.  

Piotr Greniewski: W mojej pracy, jako wykładowcy na uczelni, przekazuję studentom wiedzę i umiejętności praktyczne ChatGPT. W ramach pracy architekta biznesowego stosuję ChatGPT do weryfikacji wymagań, budowy scenariuszy testowych oraz dokumentacji do programów.

Dodatkowo ChatGPT jest bardzo wygodny do budowy prezentacji np. w Power Point oraz do szybkich tłumaczeń.

Michał Bylica: W projekcie, w którym obecnie pracuję wykorzystuję AI zazwyczaj przy tworzeniu bardziej skomplikowanych zapytań SQL-owych. Z jednej strony pozwala to zaoszczędzić czas, a z drugiej sprawdzić inne podejście do tworzenia zapytań do baz danych. Czasem jest tak, że mamy w głowie jakieś konkretne rozwiązanie, które skutkuje otrzymaniem błędów w zapytaniu. W takiej sytuacji warto poprosić kogoś z zespołu o spojrzenie na to tzw. świeżym okiem. W obecnej sytuacji może nam w tym pomóc ChatGPT. Możemy wpisać do niego odpowiednie kolumny z bazy i poprosić o napisanie zapytania od zera, ale możemy też przedstawić mu nasze rozwiązanie i poprosić o jego refaktor.  

Inną sytuacją, w której zdarza mi się użyć AI w codziennej pracy, jest wpisanie historyjki użytkownika do Chata i poproszenie o rozpisanie przypadków testowych. Pozwala mi to sprawdzić, czy uwzględniłem wszystkie możliwe sytuacje oraz zweryfikować zwłaszcza przypadki negatywne, które czasem nie są wcale tak oczywiste, a które warto sprawdzić.

Jak można wykorzystać AI w pracy projektowej?

Kasia Mazur: Z punktu widzenia programisty — generowanie kodu w dowolnym języku na podstawie algorytmu, analiza skomplikowanego kodu, debugowanie, znajdowanie błędów, refaktor kodu, optymalizacja, tworzenie testów jednostkowych na podstawie fragmentów kodu, tworzenie dokumentacji. To tylko kilka pierwszych pomysłów. Jest przydatna w „podstawowych” i często wykonywanych czynnościach powtarzających się w każdym projekcie. Jednak na obecnym etapie trzeba jej pilnować i sprawdzać poprawność odpowiedzi. 

Piotr Greniewski: W pracy projektowej ChatGPT może być wykorzystywany jako wsparcie w całym cyklu życia oprogramowania, czyli: zbieranie wymagań, zdefiniowanie zapytania ofertowego, zaprojektowanie aplikacji, kodowanie, testy, dokumentacja.

Michał Bylica: W pracy testera oprogramowania ChatGPT może być przydatny w zautomatyzowaniu powtarzających się czynności, w tworzeniu dokumentacji projektowej czy w wyszukiwaniu informacji związanych z wymaganiami, jakie należy pokryć testami. W trakcie procesu testowania bazujemy na otrzymanych wymaganiach biznesowych oraz przypadkach użycia. Te określają nam sposób postępowania użytkowników oraz zasady działania aplikacji, jednocześnie starając się znaleźć luki w programie, poprzez odwzorowanie skrajnych sytuacji i niestandardowych przypadków zachowania. Pamiętajmy, że wynikiem analizy biznesowej często są podstawowe ścieżki użycia oraz kilka alternatywnych ścieżek wywołania błędu aplikacji, więc chcąc skrupulatnie przetestować daną funkcjonalność, należy patrzeć z szerszej perspektywy, doszukując się wydawałoby się niemożliwego zachowania docelowych odbiorców. W tym przypadku przydatny może być ChatGPT, który odpowiednio nakierowany, udzieli podpowiedzi w skrajnych sytuacjach.

Wyobraźmy sobie, że mamy przetestować program wyliczający kwotę należnego podatku w zależności od rodzaju opodatkowania, ale też uwzględniający wiele innych zmiennych, takich jak ulgi podatkowe, straty z lat ubiegłych, czy rozliczenie z małżonkiem. Dokumentacja analityczna, którą otrzymaliśmy, jest rozbudowana i zawiera ogrom przypadków użycia, kombinacji rozliczenia, ale nie pokrywa wszystkich możliwości uzupełnienia formularza. Znajdując tzw. edge case’y, czyli odwzorowując zachowanie aplikacji w skrajnej sytuacji, możemy wykorzystać ChatGPT do potwierdzenia naszych obaw, poprzez wyszukanie odpowiednich aktów prawnych, czy artykułów z interpretacją podatkową, co pomoże nam potwierdzić błędne działanie aplikacji, zanim zgłosimy bugi w aplikacji, czy też zajmiemy czas innym osobom w projekcie — najczęściej analitykom. 

W przypadku testerów automatyzujących Chat może pomóc w poprawie kodu, ale może też przygotować cały szkielet rozwiązania, który następnie dostosujemy do naszych potrzeb. Zwłaszcza na początku automatyzowania jakiegoś procesu w aplikacji. Możemy poprosić Chat o przygotowanie kodu w danym języku, przy użyciu konkretnej biblioteki, następnie dostosować otrzymany kod do odpowiednich parametrów tzn. adresów aplikacji, używanych lokatorów, parametryzując odpowiednie dane testowe, czy zmienne. 

Testerzy automatyzujący, podobnie jak developerzy mogą użyć Chatu także do refaktoru kodu, w celu jego optymalizacji, czy znalezienia błędów. Jednocześnie pamiętajmy, że często nowa osoba w zespole musi poświęcić dużo czasu na zrozumienie zastanego kodu, zwłaszcza jeśli nie było stosowane odpowiednie jego komentowanie. W takiej sytuacji może wykorzystać Chat, żeby wytłumaczył jej zastosowanie wykorzystanych metod w odniesieniu do danej części kodu. 

Oddzielną gałęzią, w której możemy wykorzystać Chata, są też oczywiście testy wydajnościowe. W tym przypadku, poczynając od pomocy w wybraniu narzędzia, po uprzednim rozpisaniu wymagań, jakie chcemy spełniać, tworząc testy wydajnościowe, ale także w użyciu wybranego narzędzia, gdzie Chat będzie nas prowadził za rękę od instalacji wymaganych aplikacji, po ich użycie.

Bardzo popularne, zwłaszcza w instytucjach publicznych, jest obecnie spełnianie standardów dostępności cyfrowej, a więc WCAG. Osoba, która nie miała wcześniej styczności z tym tematem, może poprosić Chata o zaproponowanie popularnych, czy też darmowych narzędzi do weryfikacji spełniania tego standardu, znajdowania błędów, ale też ich interpretacji. Zgłaszając defekty w aplikacji związane z obszarem dostępności cyfrowej, możemy sprawdzić wcześniej, czego tak naprawdę dotyczą, zarówno w przypadku „errorów”, jak i też „warningów”. Zdarzyło mi się pracować w projekcie, w którym powołano zespół ds. dostępności cyfrowej. Jest to jeszcze rzadkość, więc to na testerach spoczywa obowiązek pilnowania jakości w tym obszarze. Natomiast AI może być pomocne w interpretowaniu znalezionych „warningów”, „errorów” z zakresu dostępności.

Testerzy weryfikujący część backendową mogą natomiast wykorzystać AI do tworzenia całych kolekcji testów API, do tworzenia body requestów, ale też np. do tworzenia asercji, niezbędnych do weryfikacji poprawności otrzymywanych „responsów”. Podobnie jak w przypadku testów wydajnościowych, tutaj Chat również będzie prowadził nas za rękę, jeśli go o to poprosimy. Dzięki temu osoba z niewielkim doświadczeniem powinna poradzić sobie z bardziej skomplikowanymi testami API.

Z jakimi wyzwaniami najczęściej mierzycie się, jeśli chodzi o korzystanie ze sztucznej inteligencji?

Kasia Mazur: Błędy! Często na pierwszy rzut oka widać, że zaproponowane rozwiązanie albo fragment kodu nie ma prawa zadziałać poprawnie. Po uszczegółowieniu zapytania dostajemy poprawną odpowiedź, ale zdarzało mi się, że po serii podpowiedzi wracaliśmy do punktu wyjścia i traciłam cierpliwość do „dyskutowania” z Chatem 😉 

Michał Bylica: Dla mnie największym wyzwaniem jest ciągłe doskonalenie umiejętności związanych z wykorzystywaniem dostępnych narzędzi, jako że powstaje coraz więcej aplikacji opartych o modele sztucznej inteligencji. Ciężko nadążyć za najnowszymi trendami technologicznymi w dziedzinie SI.  

Patrząc od strony twórców aplikacji opartych o SI, jednym z wyzwań jest aktualizowanie bazy danych, jaką zasilana jest sztuczna inteligencja. Pamiętajmy, że korzystając zwłaszcza z darmowych narzędzi, musimy mieć na uwadze, że mogą one nie uwzględniać najświeższych aktów prawnych, wydarzeń społeczno-ekonomicznych czy też podstawowych czynników makro i mikro ekonomicznych. Modele sztucznej inteligencji powinny być zasilane zrozumiałymi, jednoznacznymi danymi i przekazywać fakty, a nie opinie. Jeśli zauważymy interakcje SI, które świadczyłyby o wydawaniu przez nie subiektywnych odpowiedzi, powinna nam się zapalić czerwona lampka w odniesieniu do rzetelności danego rozwiązania technologicznego. 

Od strony globalnej największym wyzwaniem dla instytucji rządowych jest kwestia uregulowania prawnego rozwijających się technologii z zakresu sztucznej inteligencji, które pozwolą zapewnić ochronę korzystających z nich użytkowników, bezpieczeństwo danych oraz minimalizację możliwości wykorzystania SI do cyberprzestępstw. 

Z perspektywy Waszych zawodów (programistka, analityk, QA), jakie widzicie największe plusy, a jakie minusy korzystania z AI?

Kasia Mazur: Z minusów, które najbardziej rzucają się w oczy, to sytuacje, gdy ktoś inny z projektu bezmyślnie przekopiuje fragmentu kodu, skryptu czy zapytań, a potem coś nie działa i trzeba szukać błędu sztucznej inteligencji. Z plusów — nie tracę czasu na proste czynności, poprawki lub żmudne i długie analizy.

Piotr Greniewski: Plusy z perspektywy analityka, to bardzo duża liczba przypadków użycia, którymi możemy się posłużyć. Minusy —  wszystko, o co pytamy, zostaje w modelu i może spowodować ujawnienie tajemnicy przedsiębiorstwa.

Michał Bylica: Z perspektywy testów największymi plusami jest oszczędność czasu, gdzie przedstawiając Chatowi odpowiednie wymagania, możemy otrzymać bardzo szybko ogrom dokumentacji testowej. Kolejną korzyścią jest bardzo szybka weryfikacja jakości naszej pracy tj. sprawdzenie przez Chat dokumentacji, kodu (w przypadku testów automatycznych), zapytań SQLowych, żądań API, kodów testów wydajnościowych.

Minusem jest trudność w nauczeniu SI naszej aplikacji, wycinka kodu, dokumentacji, tak by otrzymać interesujące nas wyniki. 

A może macie jakieś sprawdzone tipy dotyczące ChatGPT? Takie, które usprawniają Wam używanie tego narzędzia?

Kasia Mazur: Przede wszystkim szczegółowe i konkretnie zadane pytania.

Piotr Greniewski: Z mojej obserwacji – najlepszą metodą działania z ChatGPT jest praca z kolejnymi przybliżeniami, tak aby iteracyjnie osiągnąć cel.

Michał Bylica: Jednym z najprostszych, a zarazem najskuteczniejszych tipów dotyczących ChatGPT jest nakierowanie go na odpowiedni kontekst, przedstawienie mu pytania, w którym określimy w jaką rolę, czy to osobową, czy zawodową, ma się wczuć, w jakiej sytuacji się znajduje, jakie są specjalne warunki, jakie musi spełnić, odpowiadając, a także ewentualne ograniczenia i forma oczekiwanej odpowiedzi. 

Kolejnym tipem jest kontynuowanie wątku poprzez wymuszenie podania bardziej szczegółowej odpowiedzi lub np. sprecyzowanie dodatkowych wymagań co do oczekiwanej odpowiedzi. Często wystarczy zwykła komenda: podaj mi bardziej szczegółową odpowiedź. 

Ciekawostką jest również, że możemy wymusić na Czacie styl komunikacji, tj. prowadzić formalną konwersację lub przejść do luźnej formy jak podczas rozmowy ze znajomymi. Wystarczy określić to w dowolnym momencie korzystania z ChatGPT. 

Czy zdarzyło Wam się „złapać” ChatGPT na błędzie? Jeśli tak, to jakim?

Kasia Mazur: Tak i to często. Zdarzało się, że po zapytaniu o konkretny fragment kodu dostawałam w odpowiedzi pomyloną składnię (kod napisany w innym języku) lub błędnie napisane warunki — kod nie miał prawa zadziałać.

Piotr Greniewski: ChatGPT, jeśli nie ma w swoim modelu właściwej odpowiedzi, to często fantazjuje, podając odpowiedź nieprawdziwą.

Michał Bylica: Nie tyle błędzie, ile po prostu na braku zrozumienia zapytania i udzielenia nietrafnej odpowiedzi. Natomiast korzystając z promptów, czyli wskazówek nakierowania Chata na odpowiedni tok myślenia, powodujemy, że z każdym zadanym pytaniem AI jest w stanie lepiej zrozumieć kontekst sprawy i udzielić bardziej precyzyjnej odpowiedzi. 

Drugą kwestią jest nieaktualna baza danych, zwłaszcza w przypadku darmowej wersji Chata. Niedawno szukałem statystyk piłkarskich i otrzymałem informację zwrotną, że Chat posiada bazę danych do 2022 roku w tym zakresie. Natomiast pierwotne odpowiedzi Chata były po prostu błędne, więc należy pamiętać, żeby odpytać Chata, jaki zakres danych i z jakiego okresu posiada, zanim ocenimy, że wskazał nam błędną odpowiedź.

Coraz częściej mamy do czynienia z treścią wygenerowaną przez AI, na przykład w postaci CV-ek. Po czym poznać, że treść, którą widzimy, nie została stworzona przez człowieka?

Kasia Mazur: Treści wygenerowane przez AI mogą być pozbawione indywidualnego stylu czy osobistych akcentów, zazwyczaj są jednolite i brakuje im emocji. Mogą zawierać błędy logiczne i być niespójne. Może pojawić się niewłaściwe użycie idiomów czy niezrozumiałe odniesienia. Teksty AI rzadko zawierają literówki czy błędy gramatyczne, które są naturalne dla ludzi. W praktyce, aby jednoznacznie stwierdzić, czy tekst został wygenerowany przez AI, warto skorzystać z narzędzi i algorytmów, które analizują cechy charakterystyczne dla tekstów wygenerowanych przez różne modele językowe AI.

Ta odpowiedź też została wygenerowana przez sztuczną inteligencję.

Piotr Greniewski: Opracowania tworzone przez ChatGPT np. CV albo opisy są perfekcyjne, ale jakby martwe, bez większego polotu.

Michał Bylica: CV wygenerowane przez chat GTP, o ile nie będzie dostosowane do konkretnej oferty pracy, będzie zawierało bardzo ogólnikowe i formalne stwierdzenia. Oczywiście ChatGPT może mieć narzucone konkretne wytyczne, które spowodują, że napisane przez niego CV będzie wyglądało tak, jakby pisał je człowiek. Stąd, po samym przeczytaniu CV bardzo ciężko wywnioskować, czy było ono pisane przez Chat, czy własnoręcznie. 

Przypominając sobie wiele CV, jakie miałem okazję sprawdzać, podszedłbym do tego pytania w odwrotny sposób. Na pierwszy rzut mógłbym pokusić się o wytypowanie CV, które były napisane bez użycia Chata, szukając w nich pojedynczych błędów ortograficznych, czy braku spójności w strukturze poszczególnych sekcji. Zauważmy, że jeśli poprosimy Chata o przygotowanie CV, struktura sekcji dane, wykształcenie, doświadczenie, umiejętności jest identyczna i zawsze według tej samej logiki tj. każda sekcja jest wylistowana, każde zdanie zaczynane wielką literą i zakończone kropką, idealnie użyte znaki interpunkcyjne. 

Oczywiście może zdarzyć się kandydat, który rozpisze CV w taki właśnie sposób, ale jeśli znalazłbym brak spójności w tym zakresie, to obstawiałbym, że CV było pisane własnoręcznie. Bardzo prostym sposobem identyfikacji może być użycie ChatGPT przez rekrutera, prosząc właśnie o dostosowanie CV do oferty pracy, na którą aplikuje kandydat, dodatkowo napisanie kilku wytycznych, tak by mieć różne warianty odpowiedzi. Wtedy bardzo łatwo porównać CV wygenerowane przez Chata z tymi otrzymanymi od kandydatów i odpowiedź może nasunąć się sama. 

Prawdziwa weryfikacja następuje jednak podczas rozmowy z kandydatem czy to „na żywo”, czy też podczas rekrutacji zdalnej. Pierwszym sposobem jest oczywiście weryfikacja ogólnych zapisów, czy też informacji budzących wątpliwości, zwłaszcza jeśli chodzi o wymieniony zakres umiejętności i doświadczenia kandydata, który można bardzo szybko zweryfikować, wchodząc w szczegóły. Natomiast wykorzystując wspomnianą przeze mnie strukturę rozpisanego CV, jednym ze sposobów może być proste zadanie, które wymusi na kandydacie formalne rozpisanie jakiegoś rozwiązania w formie listy, z podpunktami. 

Jeśli kandydat rozpisze je np. bez użycia znaków interpunkcyjnych, rozpoczynając podpunkty małymi literami, nie zachowując spójności strukturalnej, natomiast całe CV było rozpisane jednolicie, z zupełnie inną formą punktowania, może to świadczyć o skorzystaniu z Chata, chociaż wcale nie musi. Zidentyfikowanie użycia Chata w CV nie traktowałbym jednak jako coś złego, skutkującego koniecznością skreślenia kandydata. Przecież mógł on rozpisać CV samodzielnie, prosząc Chata jedynie o ujednolicenie struktury dokumentu, czy też użył go w celu eliminacji błędów, co może nawet świadczyć na jego korzyść. Zachęcałbym, więc do rozważnego używania Chata przez kandydatów, ale przede wszystkim do umieszczania prawdziwych informacji w CV.

W jakich sytuacjach korzystanie z AI jest wręcz wskazane i wskazuje na kreatywność, a w jakich może zostać odebrane jako „pójście na łatwiznę”?

Kasia Mazur: Wskazane jest przede wszystkim w sytuacjach prostych, ale długich i żmudnych jak na przykład analiza długiego tekstu, zbioru danych czy znalezienie błędu.  

Piotr Greniewski: ChatGPT jest perfekcyjny przy tworzeniu badań lub analiz polegających na opracowaniu wyników. Np. mamy 1000 ankiet i chcemy opracować wyniki badań.

Michał Bylica: W mojej opinii korzystanie z AI w procesie testowania jest wskazane zwłaszcza w przypadku pisania dokumentacji testowej, gdzie bardzo niskim nakładem czasu, możemy uzyskać wysoką korzyść w postaci prawie gotowej rozbudowanej dokumentacji. Prawie gotowej, dlatego, że moim zdaniem, należy dostosować otrzymany wynik do przyjętej konwencji pisania dokumentacji, ale też podejść krytycznie i zweryfikować, czy wszystkie aspekty zostały uwzględnione. Wszystkie wymienione przeze mnie możliwości wykorzystania AI dla różnych specjalizacji mogą wskazywać na kreatywność, wszystko zależy od kontekstu ich użycia. 

Jeśli wspomagamy się sztuczną inteligencją w celu znalezienia optymalnego rozwiązania w pisaniu kodu lub mając problem np. z napisaniem zapytania SQL-owego, według mnie jest to słuszne podejście. Jeśli wykorzystujemy AI do zrobienia wszystkiego za nas, nie próbując nawet samemu znaleźć rozwiązania, to po pierwsze świadczy o nieprofesjonalnym podejściu, po drugie może wprowadzić chaos w projekcie, a po trzecie powoduje, że sami robimy sobie krzywdę, rezygnując z poszerzania naszych umiejętności na rzecz zostawienia całej wiedzy w rękach AI. Wyobraźmy sobie sytuację, w której trzech testerów automatyzujących, pisząc kod nawet w tym samym języku programowania, używa tylko Chata i wkleja bezmyślnie kod do repozytorium, nawet jeśli on działa, nie stosując jednolitej konwencji, nazewnictwa, nie zważając na dotychczasowo użyte klasy, czy metody. 

O ile pojedyncze niewpływające na siebie funkcjonalności mogą zadziałać w takiej sytuacji, o tyle na pierwszym ich styku ze sobą będziemy otrzymywali błędy, nie mówiąc już jaki problem zrozumienia takiego kodu będzie stanowił dla nowej osoby w zespole. Oczywiście moglibyśmy poprosić Chata o dostosowanie kolejnych linijek kodu, natomiast w taki sposób dochodzimy do sytuacji, w której 80% czasu naszej pracy poświęcalibyśmy na naukę Chata naszego kodu, jednocześnie pozbawiając się możliwości rozwoju. A nie o to chodzi we wspomaganiu się możliwościami sztucznej inteligencji. 

Jak uważacie, czy AI zastąpi ludzką pracę? Jeśli tak, to w jakich obszarach/zawodach?

Piotr Greniewski: AI może zastąpić człowieka przy powtarzalnych czynnościach, takich jak opracowanie wyników, analiza, kodowanie, testowanie, tłumaczenia z jednego języka na drugi. Przynajmniej do tej pory nie spotkałem się z kreatywnością.

Michał Bylica: Technologia od dawna powoduje zmianę charakteru pracy w wielu branżach, co poniekąd prowadzi do redukcji etatów i wymusza konieczność przebranżawiania się pracowników. Pierwszym sektorem, który przychodzi mi na myśl, jest przemysł, którego nie wyobrażamy sobie obecnie bez użycia maszyn i zautomatyzowanych systemów. Dla mnie najbardziej zauważalna i odczuwalna dzisiaj jest obecność AI we wszelkiej komunikacji na linii firma — człowiek. Czy to na infolinii, obsłudze klienta, automatycznych systemach wywołujących rozmowy, zgłaszanie szkód/reklamacji, udzielanie informacji, procedowanie zamówień. Rzadkością staje się możliwość dodzwonienia się do człowieka, zanim nie przejdziemy różnego rodzaju interakcji z AI podczas próby kontaktu z daną firmą. Oczywiście jest wiele innych branż, na które ma wpływ sztuczna inteligencja, jednakże nie rozpatrywałbym jej tylko jako zagrożenie, a jako źródło nowych możliwości. 

Spójrzmy na sektor opieki zdrowotnej. Nie od dzisiaj przeprowadzane są zdalne operacje, czy skomplikowane zabiegi wspierane zautomatyzowanymi systemami diagnostycznymi, czy zaadaptowanymi systemami SI, będącymi asystentami chirurgicznymi. Rozwój SI już przynosi wiele korzyści, a jego odpowiedzialny rozwój może to jeszcze spotęgować.

Śledząc trendy technologiczne oraz predykcje w odniesieniu do zawodów przyszłości, najbardziej narażonymi zawodami są wszelkie specjalizacje związane z przetwarzaniem informacji, analizą danych, prowadzeniem dokumentacji. Są to zawody z czynnościami powtarzalnymi, których sztuczna inteligencja może łatwo się nauczyć. Jednocześnie są to specjalizacje, w których wystarczy dostęp do oprogramowania, by wykonać daną pracę.


Katarzyna Mazur. Java Developer w Detable. Programistka z kilkunastoletnim stażem. Pracowała nad projektami na różnych etapach rozwoju — od początkowego projektowania i pierwszych commitów, poprzez rozwój, utrzymanie czy rewrite. Poza pisaniem nowych funkcjonalności i poprawianiem bugów na backendzie pracuje też nad częścią frontendową aplikacji (głównie Angular). Brała udział w projektach z branży finansowej, telekomunikacyjnej czy psychologicznej oraz nad projektem dotyczącym ruchu sieciowego i cyberbezpieczeństwa. 

Piotr Greniewski. Lider obszaru analizy biznesowo-systemowej w Detable. Od 25 lat nauczyciel akademicki w obszarze informatyki i zarządzania. Ekspert IT posiadający doświadczenie w budowie rozwiązań informatycznych opartych o procesy biznesowe, dla dużych organizacji publicznych i prywatnych. Kreatywny profesjonalista z 40-letnim doświadczeniem w obsłudze projektów — od koncepcji po rozwój (Systemy ERP, CRM, WF, budowa wysoko dostępnych portali oraz integracja programów za pomocą szyny ESB). Znajomość i doświadczenie w obszarach: przedsprzedaży, wyceny projektów, zarządzania projektami oraz tworzenia architektury biznesowej i systemowej rozwiązań informatycznych.

Michał Bylica. Lider obszaru QA w Detable. Doświadczony, wieloletni tester w projektach związanych z wytwarzaniem oprogramowania. Zrealizował kilkanaście projektów komercyjnych dla zagranicznych klientów oraz w sektorze publicznym. Prelegent podczas szkoleń dla osób chcących zmienić branżę na IT – od teorii do praktyki testowania z wykorzystaniem najpopularniejszych narzędzi niezbędnych w codziennej pracy testera, aż po przygotowanie do egzaminu Foundation Level ISTQB.

Zdjęcie główne artykułu pochodzi z envato.com.

Od ponad ośmiu lat pracuje jako redaktorka, dziennikarka i copywriterka, a od niedawna dba o treści oraz rozwój portalu poświęconego branży IT. Autorka wywiadów, tekstów eksperckich, newsów.

Podobne artykuły