iOS 26: l’intelligenza visiva ora cerca i contenuti sullo schermo
Apple ha annunciato un significativo aggiornamento di Visual Intelligence al WWDC 2025, permettendo agli utenti di cercare e interagire con qualsiasi contenuto visualizzato nelle app dell’iPhone.
La nuova funzionalità, precedentemente limitata all’identificazione di oggetti reali tramite fotocamera, ora analizza i contenuti sullo schermo. Gli utenti potranno rivolgere domande a ChatGPT su ciò che stanno visualizzando o cercare articoli simili su Google, Etsy e altre app supportate.
Visual Intelligence riconosce oggetti specifici all’interno delle app, come evidenziare una lampada per trovare articoli simili online. Il sistema rileva inoltre gli eventi sullo schermo e suggerisce di aggiungerli al Calendario, estraendo automaticamente date, orari e luoghi.
L’accesso alla funzione sarà intuitivo: gli utenti utilizzeranno la stessa combinazione di tasti usata per gli screenshot. Potranno quindi salvare, condividere lo screenshot o esplorarlo ulteriormente con Visual Intelligence.
L’aggiornamento trasforma essenzialmente Visual Intelligence in uno strumento di ricerca e azione universale nell’esperienza iPhone. Apple sottolinea che la funzione si basa sull’approccio di elaborazione on-device di Apple Intelligence, mantenendo la privacy dell’utente e fornendo assistenza contestuale tra le app.
