Rozmowa z Przemkiem Falenciakiem, specjalistą od sztucznej inteligencji, radnym gminnym, pracownikiem GOKSiR w Przecławiu. Dziś część pierwsza, jutro druga.
Kiedy zetknąłeś się pierwszy raz z AI? Jaka była twoja pierwsza opinia?
Po raz pierwszy zetknąłem się ze sztuczną inteligencją w formie generatywnego modelu językowego w dniu premiery ChatGPT w Polsce. Z ciekawości kliknąłem w link w jednym z serwisów poświęconych nowym technologiom, które regularnie śledzę. Pomimo że była to wczesna wersja modelu (jeszcze GPT-3.5), często „wysypująca się” po kilku linijkach, już wtedy wywarła na mnie ogromne wrażenie. Chatbot, który rozumie kontekst i generuje tekst w języku polskim, był czymś zupełnie nowym.
Już wtedy przypominało to sztuczną inteligencję?
Na początku testowałem jego możliwości, prosząc o napisanie historyjek na bazie moich założeń. Choć z dzisiejszej perspektywy tamte odpowiedzi wydają się ułomne, czułem już wtedy, że mam do czynienia z przełomem. Przewidywałem szybki rozwój tej technologii – co się potwierdziło. Kolejne miesiące przyniosły znaczące usprawnienia w rozumieniu języka, kontekstu i kreatywności modeli.
Trzeba dodać, że z AI w sensie klasycznych algorytmów – np. selekcjonujących treści w mediach społecznościowych czy usługach streamingowych – mieliśmy do czynienia już od lat. Jednak dopiero generatywne modele przyniosły szerokiemu gronu użytkowników namacalne doświadczenie „interakcji” z czymś, co przypomina inteligencję.
Czy sformułowanie „sztuczna inteligencja” jest dobre, czy może przesadzone. Może to zwykła wyszukiwarka, tylko bardziej zaawansowana?
Nawet wśród ekspertów nie ma jednej definicji sztucznej inteligencji. Słowo „inteligencja” samo w sobie bywa trudne do jednoznacznego zdefiniowania – szczególnie w odniesieniu do systemów nieludzkich. Z jednej strony mamy inteligencję emocjonalną, przestrzenną, językową itd.; z drugiej – inteligentne urządzenia, które operacyjnie wykonują złożone zadania.
Termin „sztuczna inteligencja” w języku potocznym przyjął się jako określenie systemów wykorzystujących uczenie maszynowe i przetwarzanie danych do osiągania rezultatów przypominających działania człowieka. Obecnie, gdy mówimy o AI, zazwyczaj mamy na myśli modele generatywne – tekstowe (np. ChatGPT, Claude, Grok, Bielik), graficzne (Midjourney, DALL·E, SDXL), czy muzyczne (Suno, Udio).
Czy modele takie przejawiają inteligencję?
Potrafią wykonywać złożone zadania, konwersować w wielu językach, tworzyć autorskie treści, a nawet analizować kod, dane, obrazy. Niemniej brakuje im świadomości, intencji i zrozumienia w ludzkim sensie tych słów. Są to narzędzia statystyczne oparte na sieciach neuronowych, przetwarzające dane według wzorców wykrytych w czasie treningu. Nie rozumieją – ale skutecznie symulują rozumienie.
Słowo o teście Turinga – niektóre wersje tzw. „czystych” modeli rzeczywiście były poddawane takim próbom i w ograniczonych warunkach potrafiły je przejść. Ale trzeba podkreślić, że test Turinga nie jest obecnie uznawany za miarodajny sprawdzian inteligencji – bardziej testuje zdolność do symulowania ludzkiej komunikacji.
Pojawia się też kwestia praw autorskich – ponieważ modele są trenowane na ogromnych zbiorach danych (częściowo pochodzących z internetu i archiwów), prawne i etyczne kwestie związane z wykorzystaniem cudzych treści w treningu AI pozostają otwarte i są intensywnie dyskutowane.
Eksperci zwracają również uwagę na zjawisko „czarnej skrzynki” – czyli fakt, że nawet twórcy nie zawsze potrafią dokładnie wytłumaczyć, dlaczego model podjął daną decyzję. Dlatego kluczowe staje się wprowadzanie transparentnych zasad, systemów oceny ryzyka
i odpowiedzialności. Na tym właśnie koncentruje się obecna fala regulacji, takich jak europejski AI Act.
Podsumowując: AI nie „myśli” i aktualnie nie posiada samoświadomości – ale staje się coraz bardziej użytecznym narzędziem, które może wspierać ludzi w zadaniach twórczych, analitycznych i komunikacyjnych. Kluczowe jednak jest, by rozwój tej technologii był odpowiedzialny, transparentny i etycznie ukierunkowany.
Załóżmy, że ktoś chce poznać podstawy AI. GOKSiR może pomóc, ponieważ stworzył takie narzędzie, gdzie znajdziemy darmową bazę wiedzy w tym temacie…
Tak, jako GOKSiR zrealizowaliśmy jesienią ubiegłego roku projekt TechArtForma.pl – nowoczesną platformę wymiany wiedzy o technologii w kulturze, sztuce i edukacji. To internetowy hub, który rozpoczął się od warsztatów i wykładów – zarówno stacjonarnych, z udziałem 14 instytucji z regionu!, jak i online. Wśród prelegentów znaleźli się eksperci od nowych technologii, rynku muzycznego, marketingu opartego na AI oraz akademicy i praktycy wdrażający te rozwiązania w codziennej pracy. Teraz na stronie TechArtForma.pl dostępne są zredagowane materiały z tych spotkań. Polecam każdemu, kto chce zrozumieć, jak nowoczesne narzędzia mogą wspierać kulturę i edukację. Treści są aktualizowane na bieżąco.
W kwietniu uruchomiliśmy też wirtualnego asystenta TechArtForma, opartego na najnowszej wersji ChatGPT. Pomaga on użytkownikom poruszać się po stronie, sugeruje narzędzia i inspiracje oraz odpowiada na pytania związane z AI w kulturze.
To jednak nie koniec – stworzyliśmy także asystenta głosowego pod adresem goksirek.ai. Nazwa pochodzi od połączenia słowa GOKSiR oraz SI, czyli sztuczna inteligencja, które jest zawarte w nazwie naszego ośrodka. Jest to otwarta, bezpłatna platforma, która odpowiada na pytania dotyczące bieżącej działalności GOKSiR. Działa 24/7 i wykorzystuje nowoczesny interfejs głosowy, by zbliżyć się do użytkownika w jak najbardziej naturalny sposób. Każdy może z niego skorzystać, bez logowania, o dowolnej porze dnia, za pomocą głosu. To nasz sposób na pokazanie, że AI nie musi być ani trudna, ani niedostępna – wręcz przeciwnie, może być praktycznym wsparciem dla każdego mieszkańca.
Zapraszamy wszystkich do korzystania – to nasze wspólne centrum kompetencji przyszłości, otwarte dla animatorów kultury, nauczycieli, artystów i wszystkich, którzy chcą lepiej zrozumieć i wykorzystać potencjał nowoczesnych technologii.
Jakie darmowe lub łatwo dostępne narzędzia AI mogą pomóc mieszkańcom w codziennym życiu? W jaki sposób AI może pomóc w edukacji?
Sztuczna inteligencja już dziś może realnie wspierać mieszkańców w codziennym życiu – i to bez konieczności posiadania specjalistycznej wiedzy czy drogiego sprzętu. Wystarczy smartfon albo komputer z dostępem do internetu. Wiele narzędzi AI jest darmowych lub działa w modelu freemium, czyli z bezpłatnym podstawowym zakresem funkcji. Przykładem może być ChatGPT, dostępny w wersji bezpłatnej, który nie tylko rozumie język polski, ale pozwala na wygodne pisanie pism, tłumaczenie tekstów, planowanie wydarzeń czy nawet gotowanie na podstawie tego, co mamy w lodówce. Co więcej, nowa wersja umożliwia także rozmowę głosową oraz analizę zdjęć czy dokumentów – wystarczy je przesłać i zapytać.
Kolejnym świetnym i łatwym w obsłudze narzędziem jest Canva – platforma do tworzenia plakatów, zaproszeń czy grafik do internetu, która dzięki wbudowanym funkcjom AI podpowiada treści, dobiera kolory, a nawet pisze teksty. Osoby organizujące wydarzenia lokalne czy prowadzące drobny biznes mogą w prosty sposób stworzyć coś estetycznego i profesjonalnego, bez pomocy grafika.
Pomocne w życiu codziennym okazują się również narzędzia do transkrypcji mowy, takie jak system Whisper – świetne dla osób, które wolą mówić niż pisać, albo chcą zapisać wykład, spotkanie czy notatkę głosową w postaci tekstu. Warto wspomnieć też o tłumaczach AI z funkcją mowy – aplikacje takie jak DeepL czy Google Translate potrafią już nie tylko przetłumaczyć tekst, ale również wypowiedzieć go na głos, co jest dużym ułatwieniem np. w kontaktach z obcokrajowcami.
Można też nagrać muzykę…
Tak, dla osób kreatywnych ciekawą opcją są też generatory muzyki, takie jak Suno czy Udio – wystarczy wpisać pomysł na piosenkę, a narzędzie samo stworzy melodię i tekst z wokalem. To doskonałe wsparcie dla animatorów kultury, nauczycieli czy uczniów, którzy chcą stworzyć coś oryginalnego bez konieczności posiadania instrumentów czy studia nagraniowego.
Krótko mówiąc – AI jest już obecne w naszym otoczeniu i warto po nie sięgać. To nie science fiction, to codzienność, która może pomóc w wielu sprawach, od organizacji życia, przez naukę, aż po działania twórcze. I co najważniejsze – większość z tych narzędzi jest naprawdę prosta w obsłudze. Trzeba tylko spróbować.
Coraz więcej osób traktuje AI jak lekarza, pytając o diagnozy i sposoby leczenia zamiast udać się do specjalisty. Czy za chwilę lekarz pierwszego kontaktu będzie zawodem wymarłym?
Rzeczywiście, coraz więcej osób traktuje sztuczną inteligencję jako „pierwszy punkt kontaktu” – czy to w sprawach zdrowotnych, emocjonalnych, czy codziennych relacji. Ale zanim ogłosimy koniec pracy lekarzy, psychologów czy partnerów życiowych, warto spojrzeć na to z szerszej perspektywy.
Zacznijmy od lekarzy. Modele językowe potrafią dziś rzeczywiście bardzo dużo – mogą na podstawie objawów podpowiedzieć, co warto zbadać, zasugerować możliwe przyczyny, przypomnieć o terminach szczepień czy działaniu leków. Ale… to nie jest diagnoza. Algorytm nie ma dostępu do naszej dokumentacji medycznej, nie może przeprowadzić badań fizykalnych, nie zna naszej historii zdrowotnej. Dlatego wciąż – i długo jeszcze – lekarz pierwszego kontaktu będzie niezastąpiony. Co nie znaczy, że AI nie może go wspierać – np. jako asystent podpowiadający lekarzowi możliwe scenariusze na podstawie danych pacjenta. Kluczowe jest tu jedno słowo: wspierać, a nie zastępować.
Inni traktują AI jak psychologa, zwierzają się ze swoich problemów i szukają porad dotyczących relacji czy wychowania dzieci. Czy to dobry kierunek? Jakie zagrożenia mogą się z tym wiązać?
Jeśli chodzi o psychologię i emocje – temat jest jeszcze delikatniejszy. AI może być „uchem”, które wysłucha bez oceniania. Może zadać pomocne pytania, podsunąć strategie radzenia sobie z lękiem czy stresem, a nawet przypomnieć, żeby głęboko oddychać. Ale… nie rozpozna pogłębiającej się depresji, nie wyczuje intencji samobójczych, nie poczuje empatii w ludzkim sensie tego słowa. Dlatego traktowanie AI jako psychologa jest nie tylko złudne, ale i potencjalnie niebezpieczne. Może dać pozór rozmowy, ale nie zbuduje realnej relacji terapeutycznej. Co więcej – błędna rada, wynikająca z niepełnych danych albo nieporozumienia, może przynieść więcej szkody niż pożytku. AI może więc być wsparciem – ale nie terapią.
Są też tacy, którzy mówią, że „AI jest lepszy niż moja żona. Wszystko wie i nie marudzi”. Rozmawiają z AI jak z człowiekiem. Co ty na to? A Jeśli człowiek jest bardzo samotny, nie ma do kogo się odezwać. Zaczyna rozmawiać z AI…
Jeśli ktoś mówi, że „AI jest lepszy niż moja żona, bo nie marudzi”? Cóż – to mówi więcej o tej osobie niż o sztucznej inteligencji. Takie podejście może bawić, ale w tle kryje się coś poważniejszego: użytkownikom zaczyna brakować cierpliwości do drugiego człowieka,
który – w przeciwieństwie do AI – ma emocje, gorsze dni, potrzeby. A przecież to właśnie te „niedoskonałości” budują prawdziwe, głębokie relacje. AI jest narzędziem, a nie partnerem. Może zrozumieć kontekst, ale nie rozumie życia – bo go nie przeżywa.
Z drugiej strony, nie sposób nie zauważyć, że dla osób samotnych rozmowa z AI może być pewną formą ulgi. Czasem nawet pierwszym krokiem do przełamania izolacji. I jeśli ktoś nie ma z kim porozmawiać, a sztuczna inteligencja pozwala mu poczuć się choć na chwilę wysłuchanym – to może mieć wartość. Ale znowu – to powinno być wsparcie tymczasowe, nie substytut relacji międzyludzkich. Samotność to nie tylko brak rozmówcy, ale też brak odpowiedzi emocjonalnej, współodczuwania, wzajemności. AI tego nie zapewni.
I jeśli zaczniemy traktować ją jak przyjaciela, psychologa czy partnera, to nie tylko pogłębimy samotność, ale zatracimy granicę między człowiekiem a technologią.
Podsumowując – AI to potężne narzędzie. Ale pozostaje tylko narzędziem. Może pomóc, ukierunkować, być „pierwszą liną kontaktu” – ale nie zastąpi żywego człowieka. W relacjach, emocjach i zdrowiu – kluczowe są empatia, odpowiedzialność i doświadczenie.
A tego, przynajmniej na razie, żaden model językowy nie oferuje. I dobrze, bo dzięki temu nadal warto być wśród ludzi.
Jak odróżnić wartościowe porady AI od tych, które mogą być szkodliwe lub wprowadzające w błąd? Jakie są najlepsze sposoby na weryfikację informacji udzielanych przez AI, aby uniknąć dezinformacji?
To bardzo ważne pytanie, szczególnie dziś, gdy korzystanie z narzędzi AI staje się coraz powszechniejsze. Musimy pamiętać, że choć sztuczna inteligencja potrafi udzielać odpowiedzi, które na pierwszy rzut oka wyglądają na profesjonalne, to nie zawsze są one prawdziwe, aktualne czy odpowiednie dla naszej sytuacji. AI nie „wie” – ono generuje odpowiedzi
na podstawie wzorców ze swoich danych treningowych, które – nawet jeśli są imponująco obszerne – nie zawsze są kompletne ani wolne od błędów. Dlatego pierwszym krokiem powinno być traktowanie każdej porady AI nie jako wyroczni, ale jako sugestii – punktu wyjścia, który warto sprawdzić.
Jak więc odróżnić wartościowe odpowiedzi od potencjalnie szkodliwych?
Przede wszystkim: sprawdzaj źródła. Dobre modele – jak najnowsza wersja ChatGPT – potrafią podać, skąd czerpią informacje. Jeśli AI nie wskazuje źródeł albo opiera się na „własnej wiedzy” bez możliwości weryfikacji, warto zachować czujność. Zawsze warto wpisać kluczowe informacje w niezależną wyszukiwarkę i porównać z wiarygodnymi stronami – urzędowymi, naukowymi, instytucjonalnymi.
AI potrafi formułować wypowiedzi bardzo autorytatywnie – nawet gdy nie ma racji. To cecha modelu językowego, a nie gwarancja prawdy. Dlatego im poważniejszy temat, tym większy powinien być nasz dystans i potrzeba weryfikacji. Należy zachować zdrowy rozsądek i czujność poznawczą. Jeśli coś brzmi zbyt dobrze, zbyt prosto, zbyt sensacyjnie – warto się zatrzymać. AI, podobnie jak ludzie, może się „pomylić”, ale jej błędy bywają bardziej niepozorne, bo opakowane w poprawną gramatykę i przekonującą narrację.
Najlepszą obroną przed dezinformacją jest edukacja cyfrowa. Im lepiej rozumiemy, czym jest AI i jak działa, tym mniejsze ryzyko, że damy się jej zmanipulować. Właśnie dlatego tak ważne jest, abyśmy w domach kultury, szkołach i mediach lokalnych uczyli mieszkańców nie tylko „jak korzystać z AI”, ale też jak z nią rozmawiać krytycznie, świadomie i bez nadmiernego zaufania. Bo AI – choć potężna – nie jest nieomylna. Ale w naszych rękach może być narzędziem mądrego, świadomego działania. Pod warunkiem, że nie oddamy jej całkowicie odpowiedzialności za nasze decyzje.
Część druga jutro, a w niej m.in.: Czy CzatGPT może się na nas zdenerwować? Czy AI może być użyteczne w monitorowaniu zdrowia? Jak AI może się zmienić za 5 lub 10 lat?

