Google, tante novità: arrivano Lens, Google pay e Android P

Il colosso di Mountain View Google, in questi anni ha allargato la propria offerta in favore degli utenti, al fine di coprire il più possibile ogni tipo di servizio. Dalle mail al Social, passando per Youtube, un navigatore, perfino una auto che si guida da sola, e quant’altro. Dice la sua anche sul prodotto più in voga del momento: gli smartphone. Lanciando prima il sistema operativo Android che ad oggi copre il 94% sul totale dei dispositivi mobili – grazie al grande successo degli smartphone Samsung, Lg e Huawei, a cui di recente si è aggiunta Nokia dopo il matrimonio poco felice con Microsoft – e poi telefoni in proprio: i Google Pixel. Che però non sembrano aver avuto un grande successo, almeno in Europa.

Un punto di forza dei Google Pixel – e il nome non è un caso – è proprio la sua fotocamera. Tra le funzioni più importanti troviamo la possibilità di utilizzare la loro fotocamera in congiunzione con gli algoritmi di intelligenza artificiale. Questa funzione si chiama Google Lens ed è capace di riconoscere gli oggetti inquadrati dall’obiettivo — come oggetti di largo consumo, monumenti e luoghi caratteristici — per poi descriverli sullo schermo. Agganciandosi ovviamente all’immenso archivio di Google. Ora Google lancia la funzione Google Lens per tutti gli smartphone con sistema operativo Android, nella app già esistente Google Foto. La conferma è arrivata da un tweet pubblicato dall’account ufficiale di Google Foto.

Google Lens su tutti gli smartphone Android

Occorre però dire che la funzione Google Lens non sarà proprio uguale a quella montata su Googl Pixel. Le informazioni che verranno generate dall’intelligenza artificiale, non appariranno sulle immagini inquadrate dalla fotocamera in real time, magari mentre stiamo facendo uno scatto quando siamo in vacanza o altro, ma saranno disponibili solo per gli scatti già salvati in memoria. Ovvero, occorrerà selezionare l’immagine già presente nella gallery e poi premere il pulsante mentre si visualizza la foto.

A parte questo non trascurabile dettaglio, le altre funzioni di Google Lens resteranno le medesime: il software sarà capace di riconoscere i codici a barre e i QR code; sarà in grado di tradurre, o semplicemente trascrivere in automatico, il testo di documenti o cartelli segnaletici all’interno delle foto e riconoscere gli oggetti che appaiono in essi.

Per ora Google Lens potrà essere usata solamente su un numero ristretto di smartphone con sistema operativo Android (forse i più costosi), ma presto arriverà anche su iOS e via via su tutti gli smartphone con sistema operativo di Big G.

L’unico modo per cercare di avere Google Lens sul proprio smartphone è quello di aggiornare la app Google Foto disponibile sul Google Play Store. Dove normalmente scaricate le app se avete un dispositivo Android.

Nel post di Twitter pubblicato dall’account Google Foto, non viene specificato quali versioni o modelli di smartphone supporteranno Google Lens all’interno di Google Foto. Ma essendo una funzionalità integrata in un’app disponibile praticamente a tutti gli Android non dovrebbero saltare fuori grandi limitazioni. Potremmo così avere descrizioni su piante, fiori, prodotti di uso comune, orari, è capace di riconoscere una struttura architettonica, descrivere luoghi turistici e non. Su Google Pixel, Lens è perfino in grado di inserire un nuovo contatto sul telefono partendo da un biglietto da visita. Alcuni modelli, come quelli di fascia alta di Samsung, Huawei, LG, Motorola, Sony e Nokia, potranno accedere a Lens anche dall’Assistente.

Google ha catalogato tutte le immagini di Life

A proposito di immagini, molto interessante è l’esperimento che Google ha portato a termine con la rivista Life. Rivista statunitense nata nel 1936 quando Henry Luce, fondatore anche di Time e Fortune, comprò i diritti per usare il nome di una rivista umoristica e di intrattenimento fondata nel 1883. Il primo numero di Life uscì il 23 novembre 1936, in formato settimanale. Riscosse subito un enorme successo e per quarant’anni fu il più letto nell’ambito del fotogiornalismo, facendone la storia. Poco dopo la sua nascita, dovette fare i conti con la tremenda Seconda guerra mondiale, trovandosi così a raccontarla a milioni di americani attraverso servizi fotogiornalistici. Mentre negli anni ‘50, raggiunse un tale prestigio che il presidente americano Harry Truman vi pubblicò parte delle sue memorie. Inoltre, nel 1952 sulla rivista fu pubblicato per la prima volta Il vecchio e il mare di Ernest Hemingway.

Nel decennio successivo, malgrado il clima di maggiore leggerezza e spensieratezza che si respirava, Life non perse la sua tempra e raccontò la tremenda quanto inutile guerra in Vietnam. Ma anche le missioni spaziali dell’Apollo e le vicende della amatissima famiglia Kennedy. Che aveva assunto quasi i connotati di una monarchia, almeno nella storytelling giornalistica.

A partire dalla fine degli anni ‘60, però, il settimanale iniziò a perdere colpi, tanto da essere chiuso nel 1972. Le pubblicazioni ripresero nel 1978, su base mensile, e continuarono fino al 2000. Dal 2004 al 2007 tornò il formato settimanale, ma come allegato ad alcuni quotidiani americani. Infine, ormai viene pubblicato solo come numero speciale. Il suo archivio è però tutt’oggi consultabile sul web ed è ricchissimo. Si contano infatti 6,5 milioni di foto. La prestigiosa rivista americana ha incaricato Google di catalogare tutto ciò che viene mostrato all’interno di ogni immagine.

Il lavoro di catalogazione è stato svolto da un’intelligenza artificiale, che ha analizzato ogni fotografia riconoscendo il suo contenuto: edifici, vestiario, auto, animali, piante ed altri oggetti. Ciò è servito a Life per creare un archivio liberamente consultabile online, semplicemente cercando una parola.

Google precisa che si tratta solo di un esperimento, che si chiama Life Tags, ed in effetti non è proprio impeccabile. Per esempio, se cerchiamo “computer”, come risultato di ricerca ci appaiono anche pianoforti. Forse perché il sistema non distingue le tastiere dei pianoforti con quelle del Pc. Comunque, tutto sommato, i risultati sono soddisfacenti, soprattutto se si pensa che il tutto è stato fatto senza alcun intervento umano. Ossia di persone messe lì a catalogare e descrivere gli oggetti. Cosa che avrebbe richiesto il lavoro di migliaia di persone e un po’ di anni. Quindi, si è risparmiato di molto in tempi e costi. Ha fatto tutto Google in automatico, quindi qualche naturale sbavatura è più che accettabile.

Life Tags è comunque solo uno dei tanti organizzati negli ultimi tempi da Google per catalogare archivi di immagini, e dimostrare le capacità dei suoi sistemi automatici per farlo. Un altro progetto interessante è Art Palette, al fine di visualizzare dipinti di ogni epoca esposti nei principali musei del mondo, a seconda della predominanza dei colori sulle tele. Può risultare molto comodo e contribuire ad arricchire la cultura di ognuno di noi. E’ come avere uno Sgarbi sempre in tasca e senza il rischio che ci gridi sovente “Capra, capra, capra!”.

Non mancano comunque altri esperimenti in tal senso. Si pensi, ad esempio, alle app che catalogano le piante. Si pensi a Like That Garden, iForest, My Garden Answers e Leafsnap.

Google, dalle foto…ai droni

Sempre in tema di immagini, un progetto sicuramente più delicato e importante è quello intrapreso da Google con il Pentagono americano. Lo scopo è quello di creare un’intelligenza artificiale capace di analizzare le riprese dei droni. Il progetto si chiama Project Maven, ma i dipendenti di Big G non sembrano essere troppo entusiasti della cosa, dibattendo anche a lungo internamente

Perchè questi dubbi nutriti dai dipendenti di Mountain view? Essi non sembrano legati al fatto che il progetto abbia a che fare con possibilit usi bellici, ma le ragioni sarebbero altre 2:

  • alcuni dipendenti erano indignati dal fatto che la società avrebbe offerto risorse ai militari per la tecnologie di sorveglianza coinvolte nelle operazioni con i droni
  • il progetto solleva importanti questioni etiche sullo sviluppo e l’uso del machine learning.

Il progetto nasce con lo scopo ufficiale di dare supporto al Pentagono nel processare la quantità di video raccolti dai droni aerei ogni giorno. Una mole di lavoro enorme, che avrebbe richiesto molto tempo, come spiega anche Greg Allen, collaboratore al Center for a New American Security, e co-autore di un lungo rapporto datato luglio 2017 sull’uso militare dell’intelligenza artificiale.

Infatti, il Pentagono americano si trova dinanzi ad un paradosso: se da un lato ha ampiamente investito nello sviluppo di tecnologie avanzate per raccogliere dati durante i voli dei droni, è rimasto molto indietro nel creare strumenti che siano capaci di analizzare tutti quei dati velocemente e senza impiegare per molto tempo esseri umani.

Greg Allen ammette che prima della ideazione di questo progetto, “nessuno al Dipartimento aveva idea di come comprare, mettere in campo e implementare correttamente l’intelligenza artificiale”. Quindi siamo dinanzi più o meno allo stesso progetto visto prima con Life. Catalogare in maniera automatica e veloce immagini pescate dai droni.

Tuttavia, il progetto potrebbe essere limitato dal fatto che l’offerta di prodotti Google ne possa limitare l’accesso ai dati sensibili governativi. A differenza di Amazon e Microsoft, infatti, Google non avrebbe a disposizione servizi cloud orientati al governo e quindi progettati per contenere informazioni classificate come segrete.

Un portavoce di Big G ha riferito alla testata americana che sta fornendo al Dipartimento della Difesa le API di TensorFlow, usate nelle app per l’apprendimento automatico, al fine di supportare gli analisti militari nel rilevare oggetti nelle immagini. Consapevole della natura controversa dell’uso del machine learning per scopi militari, il portavoce ha affermato che la società sta attualmente lavorando per proteggere se stessa e la sua tecnologia.

La tecnologia utilizzata, fa sempre sapere questo portavoce del colosso di Mountain view, è capace di contrassegnare “le immagini per la revisione umana ed è esclusivamente dedicata a usi non certo di tipo offensivo”. E’ comunque anche consapevole del fatto che “L’uso militare dell’apprendimento automatico stia sollevando preoccupazioni valide”, ma Google si sta sforzando nello sviluppare politiche e salvaguardie per lo sviluppo e l’uso di tecnologie di apprendimento automatico.

Il Pentagono, stando a quanto riferisce il Wall Street Journal, avrebbe già investito 7,4 miliardi di dollari nell’intelligenza artificiale lo scorso anno. The Project Maven, conosciuto pure col nome di Algorithmic Warfare Cross-Functional Team (AWCFT), è stato avviato dal Pentagono nell’aprile 2017 al fine di “accelerare l’integrazione del Dipartimento nei big data e nell’apprendimento automatico”.

Eric Schmidt ha lasciato di recente l’incarico di presidente esecutivo di Alphabet, la società madre di Google ed ora presiede il Defense Innovation Board, un gruppo di consulenti creato dall’ex segretario alla Difesa Ash Carter. Così da colmare il divario tecnologico che ancora c’è tra il Dipartimento di difesa americano e la Silicon Valley e stare appresso al progetto Maven. Del resto, in un mondo sempre più tecnologizzato come quello in cui viviamo, il settore militare non può certo restare indietro. L’Intelligenza artificiale è troppo importante per essere snobbata.

Nel luglio 2017, Schmidt e altri membri del Consiglio, hanno discusso della necessità del Pentagono di creare una stanza di compensazione per l’addestramento di dati che potrebbero essere utilizzati per potenziare la capacità dell’intelligenza artificiale militare. II membri del consiglio di amministrazione hanno svolto un “ruolo di consulenza” su Project Maven.

Non è ancora chiaro se nel progetto Maven, il Pentagono stia collaborando solo con Google. Del resto, è prassi che nei progetti del Dipartimento di difesa americano non trapelino dettagli sui contratti, quindi sui nomi e le identità degli appaltatori e dei subappaltatori. Dunque, è già tanto che sappiamo che ci collabora Google. Del resto, quando c’è di mezzo Big G, è difficile che non si venga a sapere.

Apple scarica Microsoft e si affida a Google per iCloud

Ma a parte Life e Pentagono, per Google arriva un’altra importante notizia: nell’ultimo aggiornamento della iOS Security Guide, Apple ha sostituito le parole Microsoft Azure con Google Cloud Platform. In questo modo, il colosso di Cupertino ha reso noto ufficialmente il fornitore a cui affiderà i file archiviati dagli utenti su iCloud. Google brucia così la concorrenza di Amazon e Microsoft in tema iCloud, sebbene compaia ancora S3, il servizio Simple Storage Server di Amazon.

Già nel 2016 era trapelata la notizia che Apple avesse ridotto gli investimenti nel servizio di Amazon, scegliendo Google come fornitore alternativo a fronte di un contratto annuale di circa 600 milioni di dollari. Tuttavia, restò una voce di corridoio, ed inoltre nella penultima versione del documento veniva ancora espressamente citato Microsoft Azure.

Considerando il fatto che Apple, per archiviare e proteggere file, immagini, musica e video dei propri utenti, investe circa un miliardo di dollari, tale capitale sarebbe dunque ripartito in parti uguali tra Google e Amazon. Ma in cantiere c’è sempre la possibilità che Apple realizzi il proprio sistema di iCloud, investendo quasi 4 miliardi di dollari. Inizialmente, nel 2015, le aree ipotizzate erano in Arizona, Irlanda e Danimarca. Ma ora sembra che “l’isola di smeraldo” sia stata abbandonata.

Il primo, realizzato a Mesa in Arizona, è venuto a costare 2 miliardi di dollari. E ora si sta procedendo alla selezione del personale. Mentre la sede in Danimarca è in fase conclusiva. Mentre il terzo data center, anziché in Irlanda, sarà realizzato in Cina, a Ulanqab, Mongolia, entro il 2020. L’obiettivo di Apple è pertanto quello di avere un Data center per ogni continente, non dovendo così più rivolgersi ad altri colossi, peraltro concorrenti, per questo servizio.

Google sta facendo passi da gigante in questo settore. Nel 2016, per esempio, il fatturato derivante dalla sua Cloud Platform era di circa 300 milioni di dollari a trimestre. Mentre oggi, secondo le dichiarazioni del Ceo Sundar Pichai, siamo di fronte a circa un miliardo di dollari ogni 3 mesi. Praticamente, a livello trimestrale il profitto è triplicato.

Tuttavia, a livello di dati complessivi, Google ha ancora molto da fare. Il leader di mercato indiscusso resta Amazon, con 17,5 miliardi di fatturato AWS, in crescita del 43% rispetto al 2016 e con un valore di 5 miliardi raggiunto nell’ultimo trimestre del 2017. AWS vale il 10% del fatturato complessivo di Amazon, mentre nel 2014 era della metà.

Non male anche Azure di Microsoft, che insieme ai proventi di Office 365 e Dynamics 365, produce 5 miliardi di reddito con un incremento a livello annuale del 56% e con la sola offerta Azure cresciuta di un +98%.

A registrare l’incremento più alto durante il 2017 è stata Microsoft, seguita da Google. Mentre Amazon si accontenta del 35% del totale, con un incremento più contenuto superiore solo a quello di Ibm. Che si piazza terzo, tallonato da Google.

Secondo Gartner, i servizi IaaS (Infrastructure as a Service) cresceranno in media di circa il 30% fino a raggiungere nel 2020 i 72,4 miliardi di dollari. Il segmento SaaS (acronimo di Software as a Service) crescerà del 18,4% nel 2020, arrivando a toccare quota 99,7 miliardi di dollari. Il PaaS (Platform as a Service), invece, crescerà del 20% toccando i 21 miliardi di dollari. Gartner ritiene che l’intero mercato varrà in futuro più di 400 miliardi di dollari entro il 2020, rispetto ai 260 del 2017.

Google lancia Google Pay e sfida Apple Pay

L’eterna sfida tra Google e Apple si combatte anche riguardo i pagamenti virtuali. Come noto, Big G e il colosso di Cupertino, ogni anno si fanno la guerra a colpi di servizi. E quello dei pagamenti virtuali è ovviamente il servizio del presente e soprattutto, del futuro. Come noto, Apple offre il servizio Apple Pay, mentre Google già prevede Android Pay e Google Wallet. Ora però, Google vuole lanciare un nuovo sistema di pagamenti, mandando in soffitta gli altri due: Google Pay. Non sarà ancora disponibile in Italia, ma sarà integrata in tutti i prodotti e i servizi di Big G, incluso il browser Chrome e Google Assistent.

Google Pay permetterà di eseguire compere nei negozi fisici, avvicinando semplicemente lo smartphone al Pos della cassa, e ovviamente pure sul web. Possiamo ad esempio prenotare un alloggio su Airbnb. Inoltre, in alcune città come Londra, Kiev e Portland, consente di comprare i biglietti dei mezzi pubblici.

Ancora, nei prossimi mesi, Google ha intenzione di integrare nella app `Google Play Send´, la quale consentirà agli utenti di scambiarsi denaro tramite numero di telefono, come già del resto avviene con le app Venmo e Square Cash.

L’app si divide in 2 sezioni: «Home», dove vengono mostrate le transazioni recenti e i suggerimenti di negozi nelle vicinanze che supportano il metodo di pagamento; «Cards» dove vengono memorizzate le versioni digitali delle carte di credito e di debito. Google Pay è anche un sistema di pagamento sicuro: l’azienda garantisce infatti che l’account e i dati personali vengano protetti da qualunque attacco che proviene da soggetti terzi. Per di più, Google Pay non condivide neppure il numero della carta di credito quando si effettuano acquisti presso i negozi fisici.

In Usa e Gran Bretagna, è possibile utilizzare Google Pay anche per trasferire denaro, proprio come avveniva con Google Wallet. Che ora si chiama Google Pay Send.

Dunque, Google si appresta a diventare protagonista anche nel campo dei pagamenti virtuali, facendo sempre più parte delle nostre vite. Lo scopo di Google pay è di uniformare il sistema di pagamento digitale senza creare distinzioni tra acquisti online, in-app, presso negozi fisici e P2P per il trasferimento di fondi. Speriamo che arrivi presto anche in Italia. Potremo presto vedere il logo di Google insieme a quello delle carte, che ci dirà dove potremo effettuare pagamenti tramite Google Pay.

Google, presto leader anche nella computer quantistica?

Ma a parte l’intelligenza artificiale e gli smartphone, un’altra frontiera che i big della tecnologia come Google, Microsoft, Intel, IBM e varie start-up e laboratori accademici si stanno facendo la guerra, è la computer quantistica. La loro corsa punta al raggiungimento per primi della supremazia quantistica, vale a dire il punto in cui un computer quantistico può eseguire determinati algoritmi più velocemente di un computer classico.

Ma cos’è la computer quantistica? Partiamo col dire cosa sia l’informatica quantistica. Si tratta di un’area di studi che si basa sull’idea che l’elaborazione e la memorizzazione di informazioni e lo scambio informativo dipendano dalle proprietà della fisica quantistica. Affronta pertanto problemi di ordine teorico relativi a modelli computazionali, così come argomenti più sperimentali della fisica quantistica.

L’informatica quantistica viene divisa convenzionalmente in diverse sotto-branche:

  • calcolo quantistico
  • crittografia quantistica
  • rete quantistica
  • entanglement quantistico
  • teletrasporto quantistico

L’informatica quantistica può quindi definirsi come l’insieme di tecniche di calcolo e del loro studio che usano i quanti per memorizzare ed elaborare informazioni. Molti i punti che la differenziano dall’informatica classica, soprattutto nei suo principi fondanti. Pur apparendo meno definita e meno “precisa” rispetto all’informatica tradizionale, è dimostrabile che le Macchine di Turing quantistiche non solo possono raggiungere lo stesso grado di precisione di quelle classiche, ma possono anche eseguire calcoli e operazioni per loro impossibili.

Tornando a Google e alla sua aspirazione di primeggiare nella informatica quantistica, ritiene che Bristlecone, il suo più recente processore quantico, lo metterà sulla strada per raggiungere la supremazia in ambito quantistico. Lo scopo di Bristlecone, afferma Google, è quello di fornire ai suoi ricercatori un banco di prova “per la ricerca sui tassi di errore del sistema e sulla scalabilità della nostra tecnologia qubit, nonché sulle applicazioni di simulazione quantistica, ottimizzazione e apprendimento automatico.”

I computer quantistici stanno ancora facendo i conti con i tassi di errore. Essi funzionano tipicamente a temperature estremamente basse (stiamo parlando di millikelvins) e sono schermati dall’ambiente in quanto i bit quantistici di oggi sono ancora altamente instabili e qualsiasi rumore può causare errori.

I qubit, nei moderni processori quantistici (le versioni di calcolo quantistico dei bit tradizionali) non sono in realtà singoli qubit, ma spesso una combinazione di numerosi bit per contribuire a spiegare potenziali errori. Altro limite è costituito dal fatto che la maggior parte dei sistemi può preservare il loro stato solo per meno di 100 microsecondi.

In precedenza, i sistemi ideati da Google mostravano un tasso di errore dell’1% per la lettura, lo 0,1% per il singolo qubit e lo 0,6% per i gate a due qubit. Ogni chip Bristlecone presenta 72 qubit. Si ritiene che ci vorranno 49 qubits per raggiungere la supremazia quantistica, ma Google ritiene pure che un computer quantico non riguarda solo i qubit. Il team di Big G riferisce in una nota: “Il funzionamento di un dispositivo come Bristlecone a un errore di sistema basso richiede l’armonia tra una serie completa di tecnologie che vanno dal software all’elettronica di controllo al processore stesso. Ottenere questo diritto richiede un’attenta ingegnerizzazione dei sistemi su diverse iterazioni”.

I passi in avanti di Google ovviamente mettono sotto pressione gli altri colossi che non vogliono restare indietro sul tema quantistico. E la cosa più interessante di questa gara è che ogni attore protagonista sta utilizzando approcci diversi per arrivare alla meta. Quale sarà quello che risulterà vincente?

Microsoft, stranamente, considerando i grandi passi in avanti che ha fatto fare ai Computer, è attualmente indietro poiché il suo team non ha ancora prodotto un qubit. E, contemporaneamente, il suo lavoro potrebbe portare presto alla realizzazione di una macchina da 49 qubit. Microsoft, inoltre, sta lavorando pure su un linguaggio di programmazione per l’informatica quantistica.

Un altro colosso dell’informatica quale IBM, prevede una macchina da 50 qubit, e permette ai suoi sviluppatori di lavorare con una simulazione su cloud di un computer quantico.

Intanto Google sta per lanciare Android P

In attesa di primeggiare anche nella computer quantistica, Google ha rilasciato la developer preview di Android P, il suo nuovo sistema operativo, che sarà lanciato nel terzo quadrimestre di quest’anno in esclusiva per i suoi nuovi Google Pixel. Android P è ovviamente solo un nome in codice, dove la P è solo l’iniziale di un nome esteso. Tra le alternative, sembra che la favorita sia Pineapple.

Ecco tutte le novità che Android P lancerà:

  • Display cutout support: Android P semplificherà per gli sviluppatori l’ottimizzazione delle app qualora siano presenti questo particolare estetico, grazie alla presenza di librerie dedicate
  • Multi-camera API: possibilità, sempre per gli sviluppatori, di poter ottenere lo stream da due o più fotocamere insieme, avviando tutta una serie di utilizzi ad-hoc
  • Indoor positioning: Android P supporta il protocollo Wi-Fi IEEE 802.11mc (WiFi RTT), che permette alle app di misurare la distanza dagli access point, triangolando la posizione degli utenti nei luoghi chiusi con un’approssimazione di 1-2 metri
  • Open Mobile API NFC: le app saranno capaci di accedere ad un sistema protetto e di abilitare pagamenti con smart card servendosi appunto dei chip NFC, tecnologia ormai onnipresente sugli smartphone.
  • Messagging notifications: nelle notifiche delle app di messaggistica, gli sviluppatori potranno inserire nuove funzionalità come: mostrare correttamente immagini e adesivi, visualizzare conversazioni complete con i nomi dei contatti e suggerire “smart reply”, le cosiddette risposte rapide coerenti con la conversazione
  • Data cost e JobScheduler: mediante i segnali di stato della rete che provengono dagli operatori, JobScheduler (l’API di pianificazione di determinati task) può controllare quale l’attività si trovi in sospeso, posticipandola qualora la rete si trovi in uno stato congestionato o effettuando il prefetch con rete libera
  • ImageDecoder: Android P supporta meglio GIF e WebP avendo adottato questo sostituto del precedente BitmapFactory
  • Security Improvements: usa un’interfaccia più coerente per l’autenticazione delle impronte digitali attraverso le app, con una finestra di dialogo standard per l’utente. Il nuovo software cambia anche i valori predefiniti per il Network Security Configuration, al fine di utilizzare una connessione TLS sicura. Limitato anche l’accesso al microfono, alla fotocamera e ai sensori di un dispositivo da parte delle app inattive
  • Introdotto il supporto all’HDR VP9 Profile 2, codifica di immagini HEIF, miglioramenti per l’autenticazione delle impronte digitali, e prestazioni ART, ottimizzazione efficienza energetica

Queste le prossime tappe per l’introduzione di Android App: a maggio sarà rilasciata la seconda devoloper preview, a inizio giugno la terza, nella seconda metà di giugno la quarta, a fine luglio la quinta. Infine, a fine 2018 (convenzionalmente indicato come fine Q3 2018) arriverà la versione definitiva. Android P può essere installata su tutti gli smartphone Pixel sotto forma di factory image. Pertanto, occorrerà installarlo manuale tramite PC, utilizzando adb e fastboot. Servono quindi precise competenze, quindi se non siete sicuri, lasciate perdere.

Vedremo se questo futuristico Android P sarà adottato anche per i futuri smartphone Android, oltre che per Pixel.

LEAVE A REPLY