Le api usano i movimenti di volo e le oscillazioni del corpo per aiutare il loro cervello a imparare e riconoscere i modelli visivi con notevole precisione, secondo la ricerca dell’Università di Sheffield che potrebbe rimodellare come si sviluppa l’intelligenza artificiale di prossima generazione.
La scoperta rivela come anche i piccoli cervelli di insetti possano risolvere compiti visivi complessi Usando sorprendentemente poche cellule cerebrali, ipotesi impegnative sull’intelligenza e sulla potenza di calcolo.
Il team di ricerca ha creato un modello computazionale del cervello di un’ape per capire come i movimenti di volo creano chiari segnali neurali che consentono alle api di identificare in modo efficiente le caratteristiche nel loro ambiente. Questo approccio biologico suggerisce che i robot futuri potrebbero diventare più intelligenti usando il movimento per raccogliere informazioni piuttosto che fare affidamento su enormi reti di computer.
Il movimento guida la precisione neurale
Il professor James Marshall, direttore del Center of Machine Intelligence presso l’Università di Sheffield, sottolinea le implicazioni dello studio: “In questo studio abbiamo dimostrato con successo che anche il più piccolo cervello può sfruttare il movimento per percepire e comprendere il mondo che ci circonda.
Il modello dimostra come le api generano schemi elettrici unici nel cervello attraverso i movimenti di scansione durante il volo. Questi movimenti aiutano a creare risposte neurali scarse e decorate in cui solo i neuroni specifici si attivano per particolari caratteristiche visive, una strategia di codifica altamente efficiente che conserva sia l’energia che la potenza di elaborazione.
I risultati chiave della ricerca includono:
- Superiorità della visione attiva: Le api che scansionano solo la metà inferiore dei modelli hanno ottenuto una precisione del 96-98% rispetto al 60% per l’osservazione stazionaria
- Requisiti neurali minimi: Solo 16 neuroni di lobula si sono dimostrati sufficienti per compiti di discriminazione dei modelli complessi
- Ottimizzazione della velocità: Velocità di scansione normali sovraperformati movimenti più veloci, suggerendo una precisione di temporizzazione evoluta
- Capacità di riconoscimento del viso: Il modello ha identificato con successo i volti umani, abbinando le prestazioni delle api reali
Le reti cerebrali si adattano attraverso l’esperienza
Lo studio rivela come l’esposizione alle immagini naturali durante il volo modella automaticamente la connettività neurale nei sistemi visivi delle api. Il Dr. Hadi Maboudi, ricercatore principale, spiega il processo di apprendimento: “Il nostro modello di cervello di api dimostra che i suoi circuiti neurali sono ottimizzati per elaborare informazioni visive non isolatamente, ma attraverso l’interazione attiva con i suoi movimenti di volo nell’ambiente naturale”.
Attraverso l’apprendimento non associativo-adattamento neurale senza rinforzo, le reti cerebrali del modello si sono gradualmente sintonizzate su direzioni e movimenti specifici. Ciò ha creato neuroni selettivi all’orientamento che rispondono al massimo a particolari caratteristiche visive rimanendo in gran parte silenziose per gli stimoli irrilevanti.
I ricercatori hanno convalidato il loro modello computazionale usando le stesse sfide visive affrontate dalle api reali. Negli esperimenti che distinguono tra segni di più e moltiplicazione, il modello ha ottenuto significativamente meglio quando imitava le strategie di scansione delle api effettive focalizzate su regioni di pattern specifiche.
Implicazioni per la robotica e l’IA
Il professor Lars Chittka della Queen Mary University di Londra evidenzia il significato più ampio: “Gli scienziati sono stati affascinati dalla questione se la dimensione del cervello preveda l’intelligenza negli animali. Qui determiniamo il numero minimo di neuroni richiesti per compiti difficili per la discriminazione visiva e scoprono che i numeri sono incredibilmente piccoli, anche per compiti complessi come il riconoscimento del volto umano.”
I risultati suggeriscono che l’intelligenza emerge da come cervelli, corpi e ambienti lavorano insieme piuttosto che dal puro potere computazionale. Questo principio potrebbe consentire sistemi robotici più efficienti che modellano attivamente il loro input sensoriale attraverso il movimento piuttosto che elaborare passivamente set di dati enormi.
Il professor Mikko Juusola osserva: “Questo lavoro rafforza un corpus crescente di prove che gli animali non ricevono passivamente informazioni-lo modellano attivamente. Il nostro nuovo modello estende questo principio all’elaborazione visiva di ordine superiore nelle api, rivelando come la scansione guidata in modo comportamentale crea codici neurali apprezzati e apprendenti.”
La ricerca offre un percorso per lo sviluppo di sistemi di intelligenza artificiale bio-ispirati che potrebbero ridurre drasticamente i requisiti computazionali al contempo migliorando le prestazioni in applicazioni del mondo reale come la navigazione autonoma, la visione robotica e i sistemi di apprendimento adattivo. Sfruttando approfondimenti evolutivi sull’elaborazione efficiente delle informazioni, questi risultati potrebbero guidare i progressi nei veicoli a guida autonoma e nella robotica ambientale.
Imparentato
Se il nostro reporting ti ha informato o ispirato, si prega di prendere in considerazione la donazione. Ogni contributo, indipendentemente dalle dimensioni, ci consente di continuare a fornire notizie scientifiche e mediche accurate, coinvolgenti e affidabili. Il giornalismo indipendente richiede tempo, sforzi e risorse: il tuo supporto assicura che possiamo continuare a scoprire le storie che contano di più per te.
Unisciti a noi per rendere le conoscenze accessibili e di grande impatto. Grazie per essere rimasto con noi!