Potrebbero esserci forti condizionamenti da Samsung per Apple, in termini di progettazione del nuovo aggiornamento iOS 17. Subito dopo che Samsung ha annunciato nuove funzionalità di accessibilità per Galaxy Buds 2 Pro, Apple ha annunciato alcune funzionalità di accessibilità per iPhone. Poco prima del Global Accessibility Awareness Day (18 maggio 2023), Apple ha annunciato funzionalità per migliorare l’accessibilità sugli iPhone e sembra che tali funzionalità siano state ispirate dalle funzionalità di Samsung. Ad esempio, Assistive Access di Apple è simile alla Easy Mode di Samsung, mentre Live Speech è simile a Bixby Text Call.
Quali elementi di iOS 17 potrebbero essere ispirati da Samsung
Apple ha rivelato l’accesso assistito, il discorso dal vivo e la voce personale. Assistive Access è per le persone con disabilità cognitive e offre elementi e layout dell’interfaccia utente più grandi in modo che le persone possano accedere facilmente alle funzionalità essenziali. Questa funzione è simile alla Easy Mode di Samsung, che semplifica l’interfaccia utente per un accesso più semplice che aiuta gli anziani o le persone con problemi cognitivi. La funzionalità di Apple funzionerà su iPhone e iPad con app essenziali come chiamate, fotocamera, messaggi, musica e foto, offrendo touch target ed elementi dell’interfaccia utente più grandi. Questa funzionalità verrà implementata entro la fine dell’anno come parte dell’aggiornamento di iOS 17.
Con Live Speech, gli utenti possono digitare ciò che hanno da dire durante una chiamata vocale. Un iPhone, iPad o Mac convertirà quindi quel testo in voce e lo trasmetterà all’altro lato della chiamata. Gli utenti possono anche salvare frasi rapide da utilizzare durante le chiamate. Questa funzione è simile alla funzione Bixby Text Call di Samsung , che trascrive le voci in testo e viceversa durante le chiamate.
Ancora, la funzione Personal Voice di Apple è simile a Bixby Custom Voice Creator di Samsung. Sostanzialmente, è progettata per gli utenti che rischiano di perdere la voce. Possono creare una voce che suoni come loro leggendo una serie casuale di messaggi di testo per registrare 15 minuti di audio su un iPhone o iPad. Questa funzione sembra ispirata a Bixby Custom Voice Creator, che Samsung ha lanciato all’inizio di quest’anno.
Oltre a tutte queste funzionalità, Apple ha anche annunciato la modalità di rilevamento in Magnifier che gli utenti di iPhone ipovedenti potrebbero utilizzare per leggere il testo dagli oggetti. Gli utenti possono semplicemente puntare la fotocamera dell’iPhone su un oggetto o un testo che stanno guardando e la modalità di rilevamento leggerà quel testo e lo dirà ad alta voce. Questo è simile alle funzioni Rilevatore di colore, Identificatore di oggetti, Descrittore di scene e Lettore di testo di Bixby Vision di Samsung .
Altre nuove funzionalità includono la certificazione “Made for iPhone Hearing Devices” per gli apparecchi acustici, miglioramenti del controllo vocale, più opzioni di dimensione del testo nelle app Mac essenziali, immagini in pausa con elementi in movimento (per chi è sensibile alle animazioni rapide) e voci più naturali per Voice Over. Vedremo quali altre novità arriveranno con iOS 17.