In questo articolo
Insomma, l’ultimo keynote di Meta, il Meta Connect 2025 di mercoledì scorso, si è trasformato in un’esperienza a dir poco umiliante per Mark Zuckerberg. Diciamo che le demo dei nuovi occhiali smart, potenziati dall’intelligenza artificiale, sono fallite più e più volte, lasciando il CEO a balbettare in imbarazzanti silenzi. Non è la prima volta che assistiamo a scene simili, eppure ogni volta ci si chiede come sia possibile una tale impreparazione per presentazioni di questo calibro.
“Questo, uh… succede”, ha farfugliato Zuckerberg dopo che i suoi occhiali smart si sono rifiutati di accettare una videochiamata WhatsApp in diretta. “Riprovo, continuo a sbagliare”. Una scena che ha fatto il giro del web, insomma.
Il disastro dei Meta Connect 2025: la demo degli occhiali smart e l’AI che non funziona
L’episodio più eclatante, forse, ha coinvolto lo chef amatoriale e content creator Jack Mancuso. Il suo tentativo di ottenere assistenza dagli occhiali AI mentre preparava una salsa per la bistecca è degenerato in totale confusione. La funzione “Live AI” ha “allucinato”, supponendo che Mancuso fosse molto più avanti nel processo di quanto non fosse in realtà. Un classico esempio di come l’AI possa deviare dalla realtà, un fenomeno che abbiamo già visto in molti contesti e che, diciamocelo, è tutt’altro che rassicurante.
“Hai già combinato gli ingredienti di base”, ha detto l’AI a Mancuso, che stava lì, un po’ imbarazzato, davanti a una ciotola di vetro vuota. Un disastro, in pratica. Questa è stata una dimostrazione imbarazzante, che ha evidenziato alcune evidenti carenze negli sforzi dell’azienda di infondere una dose massiccia di AI nei suoi occhiali smart Ray-Ban. E non è la prima volta che Meta si scontra con la dura realtà della complessità tecnologica, ricordiamoci le ambizioni del metaverso che, per ora, rimangono più un’aspirazione che una realtà.
Un “auto-DDoS” e il “bug mai visto”: le giustificazioni di Meta
Dopo la figuraccia, il CTO di Meta, Andrew Bosworth, ha provato a spiegare l’accaduto in un “ask-me-anything” su Instagram. Ha insistito che si è trattato di un “fallimento della demo, non un fallimento del prodotto”. Una distinzione che, sinceramente, lascia il tempo che trova quando si tratta di fiducia del pubblico.
“Quando lo chef ha detto: ‘Ehi Meta, avvia Live AI’, ha avviato ogni singolo Live AI di Ray-Ban Meta nell’edificio”, ha dichiarato Bosworth. “E c’erano molte persone in quell’edificio”. Il risultato? Meta ha instradato tutto il traffico al suo “server di sviluppo”, inclusi tutti gli auricolari presenti, finendo per “auto-DDosarsi”, come ha ammesso Bosworth. In pratica, hanno mandato in tilt la propria rete sovraccaricandola di traffico fittizio. Una svista clamorosa che fa pensare a una pianificazione tutt’altro che impeccabile.
“Questo ovviamente non è successo durante le prove”, ha aggiunto Bosworth. “Non avevamo così tante cose”. Un’affermazione che, se da un lato cerca di minimizzare, dall’altro mette in luce una certa leggerezza nella gestione di un evento così importante. Persino il tentativo di Zuckerberg di effettuare una videochiamata WhatsApp dagli occhiali è fallito a causa di un “bug mai visto prima”. Bosworth ha cercato di rassicurare: “Sapete che possiamo fare videochiamate. Abbiamo WhatsApp, sappiamo come fare videochiamate”.
Il marketing dell’hype e le sfide dell’AI: un campanello d’allarme per l’etica
Ma dovremmo davvero prendere per oro colato le scuse del CTO? Oltre a dover affrontare gli inevitabili bug del software, c’è una buona probabilità che gli utenti degli occhiali smart di Meta si imbattano anche in una miriade di allucinazioni, una realtà che molti produttori di gadget AI hanno già sperimentato. In altre parole, invece di essere ingannati da un’AI su un computer desktop o uno smartphone, Meta sta aprendo la possibilità di essere fuorviati da una voce robotica direttamente attraverso i propri occhiali smart. Questo solleva seri interrogativi sull’etica dell’intelligenza artificiale nel giornalismo e nella comunicazione in generale, un tema che abbiamo già esplorato ampiamente sul nostro blog.
In un momento in cui l’hype intorno alle nuove tecnologie, specialmente l’AI, è alle stelle, è fondamentale mantenere uno sguardo critico. Quanto potenziale disagio vale la pena affrontare per 379 dollari per gli occhiali smart “normali” o 799 dollari per la versione Ray-Ban con un piccolo schermo visibile? Questa è la domanda che i consumatori dovranno porsi. Non dimentichiamo che la diffusione di disinformazione e misinformazione è una piaga dell’era digitale, e l’AI, se non gestita con estrema cautela e trasparenza, potrebbe amplificarla. Il nuovo codice deontologico italiano per i giornalisti, che entrerà in vigore a giugno 2025, impone l’obbligo di segnalare l’uso dell’IA e di verificare i dati generati da essa. Questo perché la responsabilità umana deve rimanere centrale, e l’IA non può sostituire il giudizio critico e l’empatia. Il rischio di “contenuti beige” e la perdita di creatività umana sono pericoli reali, come ben evidenziato nel manuale sull’etica del giornalismo e l’AI.
Eppure, c’è un risvolto inaspettato: alcuni giornalisti che hanno avuto l’opportunità di provare gli occhiali si sono detti sorprendentemente impressionati dall’esperienza. Forse il disastro del keynote di Zuckerberg è stato solo il risultato di una scarsa pianificazione, dopotutto. Ma la questione etica, in ogni caso, rimane aperta: l’AI deve essere uno strumento al servizio dell’uomo, non una fonte di illusioni o, peggio, di menzogne “robotiche”.




