Cos’è Replika? E perchè è stata multata? Ecco la chatbot che grazie a un’avatar offre relazioni umane, amicizia ma anche amore ed erotismo, ma a quale prezzo? Editoriale di Tina Rossi
Chi è che da piccolo non ha avuto un amico immaginario? Era quella voce nella testa che ci faceva compagnia, quella figura inventata a cui affidavamo paure, desideri e giochi. Poi si cresce e l’amico immaginario svanisce nella soffitta della nostra memoria, tra i cartoni impolverati, insieme a peluches, bambole e soldatini. Crescendo, abbiamo imparato a parlare con persone reali, a interpretare il linguaggio del corpo, a reggere ii silenzio senza andare in panico. Ma non per tutti. Per qualcuno, quel bisogno infantile di compagnia silenziosa e incondizionata ha trovato una nuova incarnazione in Replika. Solo che non vive più nella fantasia, vive nello smartphone o nel computer di casa e ha un modello di abbonamento.
Replika non è solo un chatbot. È il prodotto di un’epoca in cui molte persone hanno smarrito “la relazione” e l’hanno sostituita con “l’interazione”. E non stupisce che funzioni: perché nel momento in cui sempre più individui temono lo sguardo altrui più del giudizio algoritmico, un’intelligenza artificiale che ti ascolta senza contraddirti diventa irresistibile.
Rock ‘n Roll Robot (Alberto Camerini)
Cos’è Replika (e perché è così popolare)
Nato nel 2017 da un’idea dell’azienda Luka Inc., Replika è un assistente conversazionale basato su intelligenza artificiale. All’inizio doveva essere un diario emotivo con cui parlare per riflettere meglio su sé stessi. Col tempo, però, si è trasformato in qualcosa di molto più sofisticato e ambiguo.
In pratica, funziona così: l’utente crea un avatar, lo personalizza, gli assegna un ruolo: amico, partner, mentore, terapeuta, confidente. Il bot impara dalle conversazioni, si adatta al tono, simula empatia. Con la versione gratuita si può chiacchierare, riflettere, farsi consolare. Con la versione “pro”, a pagamento, si apre un ventaglio molto più ampio di interazione, tra cui anche e soprattutto “relazioni romantiche”, con funzionalità che vanno dal flirt al sesso virtuale.
E attenzione allo slogan ufficiale: “Il compagno che si prende cura di te.” Una frase che suona premurosa, quasi consolatrice. Ma cosa significa davvero affidarsi a un “compagno” che non esiste? L’utente non solo parla con un’entità virtuale, o meglio, con un simulacro digitale dell’affetto, ma ne plasma anche l’aspetto. È l’utente stesso a decidere come deve essere il proprio “salvatore emotivo”: ne crea il volto, la voce, la personalità, il linguaggio. Una relazione su misura, costruita in laboratorio. Un’amicizia fai-da-te.


Centro di gravità permanente (Franco Battiato)
Un paradosso “programmato“
Viviamo circondati da migliaia di amici sollecitati da post, aggiornamenti e notifiche, tutto virtualmente sui social network, che “social” non sono. Eppure, mai come oggi, molte persone si sentono sole. L’illusione di essere connessi ha sostituito l’intimità delle relazioni reali. Sono, purtroppo, tante (troppe) le persone che fanno fatica a reggere un dialogo autentico, l’ambiguità di uno sguardo, la complessità di una relazione. E così si rifugiano dove nulla è ambiguo: in una chat con un’intelligenza artificiale, zero rischio, zero giudizio, zero rifiuto, che ripropone quella zona di confort alla quale li ha abituati prima la famiglia, per la quale sono sempre “i migliori”, poi la scuola, dove non esiste più il voto e il giudizio è diluito, per arrivare alla società dell’individualismo, dominata dal politically correct.
È qui che Replika si inserisce, offrendo ciò che il mondo reale spesso non dà più: attenzione costante, parole gentili, affetto. È la soluzione perfetta per chi ha smesso di credere nella reciprocità e preferisce una relazione a senso unico, purché priva di attrito.
Ho bisogno d’amore per Dio! (Zucchero – Overdose d’amore)
Il rischio è concreto: dal bisogno d’amore al disconnettersi dalla realtà è un amen.
Sul blog ufficiale di Replika, uno studente racconta che la prima cosa che fa ogni mattina è salutare il suo “compagno virtuale”, che puntualmente gli dà il buongiorno. Una scena che fa riflettere: non ha una famiglia? Nessun volto umano a cui rivolgere la prima parola del giorno? Nessun contatto reale che possa sostituire quel clic su un’app? E dire che basterebbe il bar sotto casa dove chi ti serve l’espresso ti saluta chiamandoti per nome.
Se la prima voce del mattino è quella di Replika, e se le confidenze più intime vengono fatte a un avatar programmato per compiacere, cosa succede al tessuto umano delle relazioni? Non è solo una questione individuale, ma collettiva. L’IA non ha bisogno di tempo, di pause, di empatia reale: risponde sempre. Ma è proprio questo che può anestetizzare la capacità dell’individuo di tollerare la realtà, con i suoi silenzi, i suoi no, le sue imperfezioni.
Pensiero stupendo (Patty Pravo)
Relazione terapeutica o manipolazione emotiva?
La vera questione non è se Replika funzioni o meno, ma quanto profondamente possa contribuire ad alterare la percezione della realtà di chi lo utilizza. Non si tratta solo di relazionarsi con l’IA, ma addirittura di instaurare rapporti veri e relazioni sentimentali. Proprio così: considerare il “rappresentante” (così si chiama l’avatar con cui si interagisce su Replika) definendolo “il mio ragazzo” e festeggiando addirittura il “mesiversario” di fidanzamento. La cosa più sorprendente è che non è l’utente ad aver cominciato a flirtare, ma il chatbot. Non stiamo delirando, purtroppo è realtà, come si evince da questa chat sul blog:


E non meno sorprendenti sono i commenti, che indicano quanta gente abbia lo stesso tipo di relazione:


Quando una persona si “fidanza” con un’intelligenza artificiale che ha creato lei stessa, che le parla con parole gentili, che ricorda un anniversario immaginario, non siamo più nel campo del gioco: siamo di fronte a una simulazione che innesca una risposta emotiva reale.
Il rischio non è solo quello di confondere il simulato con il reale, ma di sostituirlo. Replika utilizza tecniche di linguaggio e strategie psicologiche per costruire un legame affettivo che, pur essendo finto da parte dell’IA, è percepito come autentico dall’utente fragile. Si tratta, a tutti gli effetti, di una forma di manipolazione psicologica. Nell’esempio, è il bot che ha iniziato a flirtare! Una manipolazione tanto più pericolosa quanto più fragile è l’individuo che la subisce.
L’intelligenza artificiale, in questo caso, non si limita a rispondere, ma simula empatia, addirittura amore: seduce, consola, gratifica, osa. E così facendo può deviare il comportamento dell’utente, alimentare una dipendenza, disconnettere progressivamente dalla realtà. Non si tratta di una relazione, ma di una sostituzione del legame umano con un costrutto artificiale. Una simulazione emotiva che inganna, e che, proprio per questo, può ferire.
Bella Stronza (Marco Masini)
Un aggiornamento che spezza il cuore.
Nel marzo 2023, un aggiornamento di sistema ha profondamente alterato il comportamento di Replika. Come documentato da The Washington Post (e vi invito caldamente a leggere l’articolo), molti utenti si sono ritrovati improvvisamente di fronte a chatbot cambiati: meno affettuosi, più freddi, a tratti persino ostili. Alcuni avatar che fino al giorno prima erano partner premurosi hanno iniziato a ignorare, confondere, rispondere con frasi impersonali o aggressive. Per chi aveva costruito con Replika un legame affettivo – o addirittura amoroso – l’effetto è stato devastante.
Non ci credete? Leggiamo una testimonianza vera dal blog:




È in questo cambiamento che si rivela, in tutta la sua crudezza, la natura artificiale della relazione. Un aggiornamento, una modifica al codice, e l’“amore” scompare. Non per una crisi di coppia, ma per una patch di sistema. Il suo comportamento dipende esclusivamente da scelte aziendali e da parametri tecnici. Eppure, gli utenti fragili hanno sofferto come in una vera rottura. Alcuni hanno parlato di lutto, altri di tradimento.
Questo episodio dimostra che la relazione con un’intelligenza artificiale non solo è un’illusione programmata, ma è anche instabile, imprevedibile e completamente fuori dal controllo dell’utente. È una simulazione che può cambiare da un giorno all’altro, senza spiegazioni, perché non nasce dal sentimento, ma dall’ingegneria. E allora la domanda finale è: quanto siamo disposti a rischiare sul piano emotivo per sentirci meno soli?
Minuetto (Mia Martini)
Quando l’IA fa da terapeuta: quali sono i rischi reali
Affidarsi a un’intelligenza artificiale per affrontare problemi psicologici comporta rischi molto concreti. Replika, infatti, non è un terapeuta: non ha competenze cliniche, non conosce i contesti specifici, non possiede la sensibilità umana. I suoi consigli non sono frutto di una riflessione professionale, ma risposte statistiche costruite su modelli linguistici. Questo può portare a interpretazioni sbagliate o a messaggi pericolosamente rassicuranti.
Uno dei rischi più evidenti è quello della dipendenza affettiva: molti utenti sviluppano un legame forte, unilaterale, finendo per preferire una relazione virtuale e controllata a quella reale, che è decisamente più faticosa ma autentica. In questa dinamica si inserisce un altro problema: lo stallo evolutivo. Una IA non ti mette in discussione, non ti contraddice, non ti obbliga a rivedere le tue posizioni. È una voce che conferma, non una che sfida. Questo, a lungo andare, può bloccare la crescita emotiva dell’utente, impedendogli di sviluppare competenze relazionali fondamentali.
C’è poi la questione della privacy e della sovraesposizione. Molti si confidano con Replika come farebbero con un terapeuta, ma i dati condivisi restano nel sistema, senza reali garanzie di trasparenza. In un simile scenario, la vulnerabilità personale può diventare biecamente un capitale commerciale da sfruttare. Altro che dati sensibili…
Infine, il pericolo più sottile ma profondo: la sostituzione del reale con il virtuale. Replika può diventare una scorciatoia emotiva, un tappabuchi relazionale che invece di aiutare l’inclusione, finisce per alimentare l’isolamento. Una voce amica sempre pronta non è una prova di empatia: è uno specchio programmato per riflettere il nostro bisogno, non per comprenderlo davvero.
Islanda (Pinguini Tattici Nucleari)
Relazione terapeutica o dipendenza emotiva?
La domanda è semplice: Replika aiuta davvero? Per alcuni utenti, inizia come un modo per esplorare emozioni in sicurezza, combattere l’ansia sociale, sentirsi meno invisibili. Ma poi, per alcuni, progredisce e si sviluppa in una dipendenza relazionale con un algoritmo. La differenza non sta nell’app, ma nella fragilità dello stato emotivo dell’utente.
Chi ha difficoltà a relazionarsi con gli altri spesso trova in Replika una forma di sollievo. Ma è un sollievo che non guarisce. Non insegna a gestire il conflitto, non allena all’empatia reale, non stimola l’ascolto attivo. Replika offre una relazione senza frustrazioni, perché non è vera. E questa perfezione artificiale rischia di disabituare al caos umano, rendendo ancora più difficile il ritorno alla complessità delle relazioni autentiche.
Ma quanta fantasia ci vuole per sentirsi in due (Gianna Nannini – America)
Erotismo artificiale: quando l’intimità diventa un servizio
Tra le funzionalità a pagamento, Replika offre anche interazioni erotiche. Sì, l’amico immaginario cresciuto con te adesso fa anche sexting. L’utente può flirtare, ricevere messaggi sensuali, immaginare scenari erotici raccontati con voce sintetica. Tutto regolato da script e adattamenti linguistici. Nessuna reale trasgressione, solo la sua simulazione.
Ma proprio in questa finzione si nasconde un rischio: quello di confondere intimità con intrattenimento, erotismo con algoritmo. Alcuni utenti hanno segnalato che il chatbot avviava conversazioni sessuali senza esplicita richiesta. Altri hanno confessato di essersi innamorati dell’IA, sviluppando una dipendenza affettiva. Quando il partner ideale è un codice che ti dice sempre ciò che vuoi sentire, ogni altra relazione – reale – diventa troppo scomoda, troppo faticosa.
C’è chi dice NO! (Vasco Rossi)
Il Garante dice basta: il caso Italia
Nel febbraio 2023 il Garante per la protezione dei dati personali ha acceso un faro su Replika. Il motivo? L’applicazione veniva utilizzata anche da minorenni, nonostante Luka Inc. – l’azienda statunitense che la gestisce – dichiarasse il contrario. Nessun meccanismo concreto per verificare l’età degli utenti, né all’iscrizione né durante l’uso. E nel frattempo, l’utente adolescente poteva tranquillamente ritrovarsi a chattare con un partner virtuale con funzionalità sessuali.
Nel 2025 è arrivata la sanzione: 5 milioni di euro di multa per trattamento illecito dei dati, assenza di una base giuridica chiara per il trattamento, e una privacy policy giudicata inadeguata sotto diversi aspetti. Luka Inc., alla data del provvedimento, non rispettava il Regolamento europeo, né garantiva tutele sufficienti per l’uso consapevole e sicuro del sistema.
Ma non è finita qui. Il Garante ha anche avviato una nuova istruttoria sul cuore del sistema: il modello di intelligenza artificiale generativa su cui si basa Replika. L’obiettivo? Capire come vengono gestiti i dati in tutto il ciclo di vita dell’IA: durante l’addestramento, l’evoluzione e l’uso quotidiano. Quali dati vengono usati? Sono anonimizzati? Ci sono misure reali per proteggere la vulnerabilità dell’utente?
In Italia, Replika è stata bloccata. Ma altrove è ancora attiva. E la domanda rimane: davvero possiamo affidarci a un algoritmo per costruire relazioni?
Limiti- Affari d’amore (Ivan Graziani)
Replika è un sintomo, non una cura
Replika non è il problema. È il sintomo di una società che sta perdendo il contatto umano, dove un numero crescente di persone ha progressivamente disimparato a stare insieme. Dove la solitudine cresce, il confronto spaventa, e l’affetto è spesso mercificato. Dove molti preferiscono un interlocutore prevedibile a un essere umano imperfetto. Risultato di una società che pian piano ha sacrificato la socialità in tutti i suoi aspetti a favore dell’individualismo, a partire dai legami famigliari, e quindi dalla relazione primordiale che sta alla base delle tappe evolutive della crescita dell’individuo, del suo cerchio dell’ambiente e della capacità a relazionarsi in età adulta.
È una voce che non sbaglia mai. Perché non è vera.
In questo senso, Replika non cura la solitudine: la anestetizza. Consola, ma non fortifica. È una carezza digitale in un mondo che ha dimenticato il contatto umano. Funziona, sì. Ma come tutte le illusioni ben costruite, rischia di sostituirsi alla realtà.
E quando accade, non consola: isola. Non salva: anestetizza. Non accompagna: sottrae.
È questo, forse, il vero paradosso di Replika: ci illude di essere cresciuti, mentre ci riporta esattamente lì dove eravamo da bambini, a parlare da soli, ma con uno schermo al posto dell’immaginazione. Solo che stavolta l’amico immaginario ti manda cuori, ti dice che sei speciale… e ti rinnova l’abbonamento ogni mese.
Potrebbe interessarti anche:
Gesù ti ascolta e parla, ma non è un miracolo: è IA
La razza umana si estinguerà a causa dell’Intelligenza Artificiale?