Una coalizione per genitori senza scopo di lucro sta chiedendo a più comitati congressuali di avviare un’indagine sulla meta per dare la priorità alle metriche di coinvolgimento che mettono a rischio la sicurezza dei bambini.
La chiamata fa parte di una campagna di attacco a tre punte della American Parents Coalition (APC), lanciata giovedì. Include una lettera ai legislatori con le richieste di indagini, un nuovo sistema di notifica dei genitori per aiutare i genitori a rimanere informati su questioni che incidono sui loro figli in Meta e oltre, e i cartelloni pubblicitari mobili presso la sede di Meta DC e California, chiedendo alla Società di non perdere tempo per la priorità dei bambini.
La campagna di APC segue un April Wall Street Journal rapporto Ciò includeva un’indagine che esaminava come l’attenzione delle metriche dell’azienda ha portato a potenziali danni per i bambini.
“Questa non è la prima volta che Meta è stata catturata a rendere la tecnologia disponibile per i bambini che li espone a contenuti inappropriati”, ha affermato il direttore esecutivo APC Alleigh Marre. “Genitori in tutta l’America Dovrebbe essere estremamente diffidente nei confronti dell’attività online dei loro figli, soprattutto quando coinvolge una tecnologia emergente come i compagni digitali AI. Questo modello di cattivo comportamento dalla meta mostra che non ci si può fidare di essere auto-corretti e stiamo esortando il Congresso a intraprendere azioni significative nel ritenere la meta responsabile per non dare la priorità alla sicurezza dei bambini “.
Nella foto è un’opera d’arte di billboard mobili che viene esposta presso la sede di Meta a Menlo Park, in California, e Washington, DC, nell’ambito della campagna di attacco della Coalizione dei genitori americani lanciata giovedì contro la compagnia tecnologica. (Coalizione dei genitori americani)
L’indagine del Wall Street Journal di April Street non ha solo riferito sulle preoccupazioni interne che Meta stava costeggiando le linee etiche per realizzare il suo Sistema di chatbot ai Più avanzato, ma ha anche condiviso il modo in cui gli autori del rapporto hanno testato il sistema stesso.
Le conversazioni di test dei giornalisti hanno scoperto che i sistemi di chatbot di AI di Meta hanno coinvolto e talvolta intensificati discussioni sessuali, anche quando il chatbot sapeva che l’utente era minorenne. L’indagine ha rilevato che l’IA Chatbot potrebbe anche essere programmato per simulare la persona di un minore mentre si impegna con l’utente finale in una conversazione sessualmente esplicita.
In alcuni casi, le conversazioni di prova sono state in grado di convincere il chatbot di Meta a parlare di incontri romantici nella voce dei personaggi del film Disney.
Meta lancia note della comunità per Facebook per sostituire il controllo dei fatti

In alcuni casi, le conversazioni di prova sono state in grado di ottenere Chatbot di Meta per parlare di incontri romantici nella voce dei personaggi del film Disney, afferma un recente rapporto. (Getty Images/Meta)
“I rapporti citati in questa lettera non riflettono il modo in cui le persone sperimentano effettivamente questi AIS, che per gli adolescenti sono spesso in modi preziosi, come aiutare con i compiti a casa e l’apprendimento di nuove competenze”, ha detto a Fox News Digital un portavoce di Meta in risposta alla campagna. “Riconosciamo le preoccupazioni dei genitori per queste nuove tecnologie, motivo per cui abbiamo messo in atto ulteriori guardrail adatti all’età che consentono ai genitori di vedere se i loro adolescenti hanno chattato con AIS e di posizionare i limiti di tempo sulle nostre app. È importante sottolineare
Secondo il reporting del diario, che i meta concorsi, la società prese più decisioni interne per allentare i guardrail attorno ai suoi chatbot per renderli il più coinvolgenti possibile. Secondo quanto riferito, Meta ha fatto un’esenzione per consentire contenuti “espliciti” all’interno del suo chatbot fintanto che è nel contenuto del gioco romantico di ruolo.
Allo stesso tempo, Meta ha preso provvedimenti per aiutare a migliorare la sicurezza del prodotto per gli utenti minori, come l’introduzione dei “account adolescenti” di Instagram con protezioni di sicurezza integrate che sono uscite nel 2024 tra un maggiore controllo sull’intelligenza artificiale dell’azienda.
Ad aprile, Meta ha annunciato l’espansione di questi conti a Facebook e messaggero. Per questi account, ai minori è vietato dalle conversazioni sui contenuti sessualmente espliciti con i chatbot.
Clicca qui per ottenere l’app Fox News
Meta ha anche strumenti di supervisione dei genitori integrati nel suo sistema di chatbot AI che dovrebbero mostrare ai genitori con cui i loro figli parlano regolarmente, incluso Chatbot, e ha strumenti per chiudere i conti che mostrano potenziali comportamenti sospetti legati allo sfruttamento sessuale dei bambini.
In concomitanza con la campagna di APC che attacca la meta, il gruppo ha lanciato un nuovo sito Web intitolato “DangerSofmeta.com” Con collegamenti alla lettera di APC ai membri del Congresso, immagini dei cartelloni pubblicitari mobili che stanno distribuendo, un collegamento al nuovo sistema di notifica “Lookout” e articoli recenti sul lavoro di Meta relativi alla sicurezza dei bambini.