Immaginiamo la scena, già attuale.
Una persona, frustrata e arrabbiata per un disservizio, decide di scrivere una lettera di protesta. Invece di raccogliere le idee, si affida a un'AI. Inserisce un prompt: "Scrivimi una lunga e dettagliata email di reclamo, usando un tono fermo ma eloquente, per esprimere tutta la mia rabbia". La macchina obbedisce, generando un fiume di parole perfettamente costruite, un saggio sullo scontento che il mittente invia senza nemmeno rileggerlo per intero. Ha delegato il suo sfogo.
Dall'altra parte, chi riceve il messaggio si trova davanti a un muro di testo. Sopraffatto o semplicemente privo di tempo, cosa fa? Copia e incolla tutto in un'altra AI, con un'unica richiesta: "Riassumi in una frase".
Il verdetto dell'intelligenza artificiale è glaciale e lapidario: "In sintesi: l'utente è arrabbiato".
In questo processo, abbiamo usato una tecnologia sofisticata per generare un'emozione artificialmente articolata, per poi usare la stessa tecnologia per ridurla a una banale etichetta, ignorandone le sfumature.
Il dialogo non è avvenuto tra due persone, ma tra due macchine che, di fatto, si sono annullate a vicenda.
Abbiamo svuotato la comunicazione di ogni empatia e comprensione.
La stiamo usando male.
Se vi va, vi lascio un ultimo mio podcast per capire se la usiamo bene o male.