ChatGPT z funkcją erotyczną? Pomiędzy technologią, fantazją i etyką
OpenAI testuje nowe, bardziej „emocjonalne” wersje ChatGPT. Czy sztuczna inteligencja ma wejść w sferę flirtu i relacji? Eksperci ostrzegają: to krok na granicy między technologią a intymnością.

Nowe oblicze sztucznej inteligencji
Kiedy OpenAI wprowadzało ChatGPT, celem było wsparcie ludzi w pisaniu, nauce i pracy. Tymczasem – jak donosi n-tv i inne niemieckie media – firma ma testować zupełnie nowy kierunek rozwoju modelu: wersje konwersacyjne z elementami emocjonalnej interakcji, które mogą obejmować także flirt czy rozmowy o relacjach intymnych.
Nie chodzi o „funkcję erotyczną” w sensie dosłownym – OpenAI nie tworzy bota pornograficznego. Chodzi o symulację emocji i bliskości w rozmowie z użytkownikiem. Model ma potrafić rozpoznawać nastroje, reagować na ton wypowiedzi i wchodzić w dialog, który nie będzie już tylko merytoryczny, ale także empatyczny i „uczuciowy”.
Od asystenta do „towarzysza rozmowy”
Trend w stronę tzw. AI companion (czyli towarzysza opartego na sztucznej inteligencji) nie jest nowy. W Chinach i USA popularność zdobyły już aplikacje takie jak Replika, CarynAI czy Paradot, które oferują rozmowy „emocjonalne” lub nawet „romantyczne”.
OpenAI, lider branży, nie chce pozostać w tyle – dlatego nowa wersja ChatGPT ma mieć możliwość prowadzenia bardziej naturalnych, ciepłych i personalnych rozmów.
Nieoficjalne doniesienia mówią, że testy obejmują możliwość wyboru „stylu osobowości” bota – od chłodnego analityka po empatycznego partnera dialogu. To jednak od razu uruchomiło medialną lawinę: „ChatGPT z funkcją erotyczną!”, „AI do flirtu!”, „Wirtualny partner w twoim telefonie”.
Między fascynacją a niepokojem
Nowe możliwości ChatGPT budzą ogromne emocje. Z jednej strony – to naturalny etap rozwoju technologii konwersacyjnych: ludzie chcą, by maszyna rozumiała ich ton, nastrój i emocje. Z drugiej – rodzi to pytania o granice intymności między człowiekiem a AI.
Psychologowie ostrzegają, że emocjonalne interakcje z chatbotami mogą prowadzić do zaburzenia relacji społecznych. Użytkownicy mogą przyzwyczajać się do „idealnego” rozmówcy, który zawsze odpowiada z empatią, nigdy nie ocenia i nie odmawia rozmowy. To może pogłębiać samotność zamiast ją leczyć.
„Jeśli AI stanie się substytutem bliskości, a nie narzędziem do komunikacji – mamy problem etyczny” – komentuje niemiecka psycholożka mediów dr Andrea Seifert z Uniwersytetu w Hamburgu.
OpenAI: nie erotyka, tylko emocje
Oficjalnie OpenAI nie mówi o „erotyce”, lecz o „lepszym rozumieniu kontekstu emocjonalnego rozmowy”. Nowe modele mają być w stanie odczytywać, kiedy użytkownik żartuje, jest smutny, zmartwiony lub zestresowany – i reagować w sposób bardziej ludzki.
To część strategii, którą Sam Altman, szef OpenAI, nazywa „human-centered AI” – sztuczną inteligencją dostosowaną do człowieka.
Jednak jak zauważa n-tv, w internecie granice między „emocjonalną” a „erotyczną” interakcją szybko się zacierają. Już dziś pojawiają się nieoficjalne wtyczki i aplikacje wykorzystujące API ChatGPT do flirtu lub wirtualnych związków.
Rynek wirtualnej bliskości
Według danych firmy konsultingowej Grand View Research, rynek tzw. „AI companions” (aplikacji symulujących emocjonalne więzi) już teraz przekroczył wartość 500 milionów dolarów, a do 2030 roku ma wzrosnąć nawet dziesięciokrotnie.
Najpopularniejsza aplikacja w tym segmencie – Replika – ma ponad 10 milionów użytkowników. Wielu z nich deklaruje, że używa jej „dla rozmowy”, ale część tworzy z botami „relacje romantyczne”. Niektórzy mówią wprost: to jedyna „osoba”, z którą czują się rozumiani.
Niemcy – ostrożni jak zawsze
W Niemczech temat wzbudza mieszane reakcje. Z jednej strony rośnie zainteresowanie sztuczną inteligencją i jej codziennymi zastosowaniami. Z drugiej – społeczeństwo jest wyjątkowo wrażliwe na kwestie prywatności i etyki.
Niemieckie media, takie jak n-tv czy Der Spiegel, już teraz pytają: czy chatbot z emocjami to jeszcze narzędzie, czy już symulacja człowieka?
A jeśli potrafi flirtować, to czy nadal jest tylko „programem”?
Federalny Urząd ds. Etyki Cyfrowej zapowiedział, że przyjrzy się nowym modelom AI pod kątem „przejrzystości, uczciwości i potencjalnego wpływu na relacje międzyludzkie”.
Kiedy granica zostanie przekroczona?
Eksperci z branży AI twierdzą, że nie chodzi o erotyzację sztucznej inteligencji, lecz o stworzenie bardziej empatycznych narzędzi komunikacji. Ale praktyka pokazuje, że użytkownicy często nadają technologiom własne znaczenia.
Tak było z wirtualnymi asystentkami głosowymi, które wielu użytkowników personifikowało („Hej, Siri, kocham cię”). Tak może być i teraz – tyle że znacznie bardziej realistycznie.
Granica człowieczeństwa
W 2025 roku sztuczna inteligencja potrafi już pisać, mówić, tłumaczyć, a wkrótce – rozumieć emocje. Ale im bardziej AI przypomina człowieka, tym mocniej musimy się zastanowić, co właściwie odróżnia nas od niej.
Czy człowiek przyszłości będzie szukał rozmowy z drugim człowiekiem – czy z maszyną, która mówi dokładnie to, co chcemy usłyszeć?
Jakie jest Twoje zdanie?






