Apple prepara “World Knowledge Answers”: la nuova Siri con ricerca web AI dal 2026
Apple prevede di introdurre nel 2026 uno strumento di ricerca web basato su intelligenza artificiale integrato in Siri, secondo quanto riportato da Mark Gurman di Bloomberg. Questa nuova funzione fornirà risposte a ricerche generiche, in modo simile a ChatGPT e agli “AI Overviews” di Google.
Il progetto “World Knowledge Answers”
Internamente, Apple chiama questa funzione World Knowledge Answers, e alcuni dirigenti la definiscono un vero e proprio “motore di risposte”. Inizialmente sarà disponibile solo tramite Siri, ma in futuro potrebbe essere estesa alla ricerca Spotlight e a Safari. L’azienda ha anche valutato la creazione di un’app in stile chatbot dedicata alla ricerca, ma non è certo che il progetto vada in porto. Secondo indiscrezioni, l’obiettivo di Apple è creare un sistema capace di fornire risposte rapide, pertinenti e contestualizzate, integrando fonti web, dati locali e informazioni personali dell’utente in un’unica esperienza fluida. Questa strategia rientra in un piano più ampio per rendere Siri non solo un assistente vocale, ma un vero hub intelligente in grado di competere con le soluzioni AI più avanzate presenti sul mercato.
Un’interfaccia multimediale e riassunti intelligenti
La ricerca Siri offrirà un’interfaccia capace di gestire testo, foto, video e punti di interesse locali. Siri potrà sintetizzare i risultati, fornendo un riassunto chiaro e immediato dei contenuti trovati, e permetterà all’utente di interagire con tali informazioni in modo dinamico, ad esempio aprendo direttamente i luoghi su Mappe, riproducendo i video correlati o visualizzando gallerie fotografiche senza uscire dall’assistente. Grazie all’integrazione con l’AI, le risposte saranno contestualizzate e adattate alle preferenze personali, offrendo suggerimenti pertinenti e aggiornati in tempo reale.
Lancio previsto nel 2026
Il nuovo “motore di risposte” sarà parte degli aggiornamenti di Siri previsti per il 2026. Apple lavora da tempo a una versione più intelligente e personalizzata dell’assistente, inizialmente prevista per iOS 18, ma rinviata. Il rinvio è stato dovuto alla necessità di riprogettare l’architettura di base, così da integrare modelli linguistici di nuova generazione capaci di comprendere meglio il contesto, offrire risposte più naturali e adattarsi alle esigenze dell’utente. Questa evoluzione punta a trasformare Siri in un assistente proattivo, in grado non solo di rispondere alle domande, ma anche di anticipare bisogni e fornire suggerimenti pertinenti in tempo reale.
Architettura di nuova generazione
La prima architettura di Siri non ha dato i risultati sperati, costringendo Apple a ricostruirla da zero con una seconda generazione basata su large language models (LLM). Ad agosto, Craig Federighi, responsabile software di Apple, ha dichiarato che la nuova architettura sta finalmente offrendo i risultati attesi, consentendo di puntare a un aggiornamento “molto più grande di quanto previsto”. Questa nuova base tecnologica permetterà a Siri di comprendere meglio il linguaggio naturale, gestire conversazioni più complesse e mantenere il contesto tra più interazioni, avvicinandosi a un dialogo realmente fluido e personalizzato. Inoltre, l’adozione di LLM di ultima generazione aprirà la strada a funzioni avanzate come la comprensione multimodale di testo, immagini e video, e una maggiore capacità di adattarsi alle abitudini e preferenze dell’utente nel tempo.
Tre sistemi alla base di Siri
La nuova Siri si baserà su tre componenti principali:
- Planner: interpreta input vocali o testuali
- Motore di ricerca: esplora il web e i dati sul dispositivo
- Riassuntore: elabora e fornisce la risposta finale all’utente
Collaborazioni e modelli AI
Apple sta valutando se utilizzare modelli LLM proprietari o affidarsi a partner esterni come OpenAI, Anthropic o Google. Con quest’ultima sembra esserci stato un passo avanti: le due aziende avrebbero firmato un accordo per testare un modello Gemini AI personalizzato, progettato da Google, per alcune funzioni di sintesi.
Apple continua a sperimentare anche modelli di Anthropic e i propri modelli interni per il planner, ma potrebbe adottare quelli di Google. I modelli proprietari Foundation Models saranno invece usati per la ricerca nei dati personali, garantendo che le informazioni degli utenti non vengano elaborate da sistemi di terze parti.
Funzioni personalizzate e novità future
La versione LLM di Siri dovrebbe arrivare già a marzo 2026 con iOS 26.4. Oltre alla funzione World Knowledge, Siri offrirà le capacità di personalizzazione promesse in iOS 18: potrà usare informazioni personali come email e messaggi per rispondere alle domande, aiutare a trovare contenuti e interagire con ciò che è sullo schermo, oltre a svolgere più azioni all’interno delle app.
Entro la fine del 2026, Siri riceverà anche un restyling grafico e una funzione integrata per la salute, che sarà il fulcro di un nuovo servizio a pagamento dedicato al benessere.
