Smartphone senza app? OpenAI punta agli agenti AI: cosa può cambiare entro il 2028

OpenAI starebbe lavorando a un telefono costruito attorno ad agenti AI, con una possibile produzione di massa nel 2028. Meno icone, più delega all’intelligenza artificiale. Fantascienza o inversione di rotta per il mobile? Ecco contesto, scenari e perché questa mossa interessa tutti.

OpenAI e l’indiscrezione di Ming-Chi Kuo: suggestione o inizio di un nuovo ciclo?

L’analista Ming-Chi Kuo, uno dei nomi più ascoltati quando si parla di smartphone, sostiene che OpenAI abbia avviato i lavori su un dispositivo basato su agenti di intelligenza artificiale, con obiettivo di produzione di massa nel 2028. La notizia è stata ripresa anche da Punto Informatico e apre un fronte concreto: un telefono progettato prima per l’AI e solo dopo per tutto il resto.

Non si tratterebbe dell’ennesimo “telefono con dentro l’app di un chatbot”, ma di un prodotto che mette gli agenti AI al centro dell’esperienza. È un cambio di paradigma: dal tappare sulle icone al descrivere obiettivi e lasciare che l’AI li esegua, orchestrando i flussi in background.

Dal modello delle app agli agenti AI

Come funzionerebbe un telefono “senza icone”

Oggi apriamo app per ogni micro-azione. Nel telefono con agenti AI, l’utente formula richieste in linguaggio naturale e delega. Lo smartphone agisce come interfaccia conversazionale e come coordinatore di servizi, sottraendo complessità e schermate inutili.

  • Scrivere e rispondere a email e messaggi con tono e stile coerenti.
  • Prenotare viaggi, ristoranti e servizi incrociando preferenze, calendario e budget.
  • Comprare prodotti negoziando prezzo, tempi di consegna e resi.
  • Organizzare la giornata integrando to-do, note, mappe e contatti.
  • Cercare e confrontare informazioni, citando fonti e proponendo alternative.

Il risultato visivo? Meno schermate piene di app, più flussi guidati e proattivi. L’AI diventa la “home” del dispositivo.

Perché ora

Dopo quasi 20 anni di “era app”, UX e store sono maturi ma poco innovativi. Gli LLM e i modelli multimodali permettono di capire richieste complesse, vedere, ascoltare e agire. È il terreno perfetto per una piattaforma che riduca attrito e passi intermedi.

Perché OpenAI potrebbe spingersi nell’hardware

C’è anche una logica di business: OpenAI è all’avanguardia ma cerca nuovi modelli di monetizzazione. Controllare l’hardware significa presidiare l’esperienza end-to-end e catturare valore su abbonamenti, servizi e chip dedicati. In passato si è parlato di confronti tra Sam Altman e Jony Ive su possibili dispositivi AI fuori dallo schema “smartphone classico”: segnali che l’azienda esplora strade hardware non banali.

In parallelo, il recente aggiornamento dell’accordo tra OpenAI e Microsoft — con una scadenza più definita — lascia intendere una fase di rimodulazione strategica. Se OpenAI vuole incidere davvero sulla quotidianità, un device proprietario può essere la leva per forzare il modello oltre i limiti dell’ecosistema app attuale.

Impatto su Apple, Samsung e Google

Un telefono con agenti AI sfida il cuore del modello smartphone: OS, store e logiche di distribuzione. Se l’utente chiede all’AI di “prenotare un hotel a Milano sotto i 150 euro vicino alla metro”, non sceglie un’app: l’agente seleziona il servizio migliore. Questo sposta potere dagli store all’AI.

Per i grandi player, le strade sono due:

  • Integrare agenti nei sistemi operativi (come sta già accadendo) e riformare la discovery oltre le app.
  • Raddoppiare sul modello attuale, puntando su privacy on-device, verticali premium e sinergie tra hardware e servizi proprietari.

In entrambi i casi, l’arrivo di un outsider con un telefono “AI-first” può accelerare la transizione, costringendo i brand a ripensare interfacce, ricerca e monetizzazione.

Scenari d’uso e nodi aperti

Esperienze possibili

  • Assistente personale proattivo: anticipa bisogni, propone alternative, risolve imprevisti (ritardi, cancellazioni, scadenze).
  • Fotocamera intelligente: riconosce contesti, estrapola dati utili dai documenti, compila form al volo.
  • Comunicazione aumentata: riassunti di meeting, traduzione simultanea, follow-up automatici con controllo umano.
  • Acquisti “a obiettivo”: definisci criteri, l’agente compara, acquista e gestisce resi.

Rischi e domande

  • Affidabilità: come si gestiscono errori, allucinazioni e responsabilità nelle azioni automatizzate?
  • Privacy e dati: dove girano i modelli, on-device o cloud? Quali metriche di trasparenza?
  • Lock-in: un agente potente ma chiuso può intrappolare utenti e sviluppatori.
  • Regolazione: serve audit su decisioni automatizzate, log esportabili, opt-out granulari.
  • Accessibilità: conversazione e multimodalità riducono la “schermo-dipendenza”, ma servono controlli chiari e verificabili.

Il 2028 è davvero dietro l’angolo

Quattro anni nel ciclo hardware sono pochi: servono supply chain, chip dedicati, un OS orientato agli agenti, partnership con servizi e un framework di terze parti per far nascere un ecosistema di “micro-competenze” AI. È plausibile aspettarsi prototipi e release progressive prima della produzione di massa.

Il punto non è tanto “se” avremo un nuovo oggetto in tasca, quanto “come” cambierà il nostro rapporto con il digitale. Uno smartphone AI-first potrebbe ridurre il tempo speso a navigare fra app e aumentare la qualità delle azioni completate. Ma senza trasparenza, controllo e standard aperti, il rischio è scambiare l’attrito delle app con l’opacità degli agenti.

Se vuoi ricevere la puntata e le fonti ogni mattina, puoi iscriverti alla newsletter de Il Caffettino.

👉 Per scoprire tutti i dettagli e l’opinione personale di Mario Moroni, ascolta la puntata completa su Spotify.