Apple presenta a súa grande integración da IA
luns, 10 de xuño do 2024
Esta tarde principiou o evento para desenvolvedores de Apple, a WWDC, cunha presentación inaugural destinada a dar a coñecer as novidades a nivel de software que prepara a compañía de Cupertino, e que chegarán en grande medida no mes de setembro, cando se lance o novo iPhone acompañado coas actualizacións de sistema operativo do resto de dispositivos da compañía da mazá.
A conferencia comezou dando conta de novidades presentes nos distintos sistemas operativos, sendo todas bastante menores (liberdade para ordenador as iconas das aplicacións no escritorio do iPhone, a chegada da aplicación de Calculadora ao iPad, a incorporación da aplicación Vitals ao Apple Watch, ou o control remoto do iPhone dende macOS), dando a impresión de que estabamos ante unha actualización anual máis, sen grande relevancia, até que se chegou ao miolo do evento: Apple Intelligence.
A intelixencia artificial rebautizada
Tras moitos meses cos usuarios e os investidores pedido que Apple movese ficha no ámbito dos grandes modelos de linguaxe e a intelixencia artificial xenerativa, por fin responden co estilo propio da compañía: chamando as cousas dun xeito diferente. Así, as siglas AI, en vez de responder á intelixencia artificial en inglés, son agora Apple Intelligence, do mesmo xeito que coas Vision Pro a realidade estendida pasou a chamarse computación espacial.
Con este anuncio Apple quere pórse á altura da competencia, e compensan este retraso na carreira no que parece ser unha mellor integración das funcións. Por exemplo as funcións propias de xeración de texto (resumir, mudar o ton ou revisar a ortografía e o estilo) non se limitan ás aplicacións como a de correo electrónico, senón que están abertas practicamente a calquera cadro de texto de calquera aplicación, do mesmo xeito que numerosas aplicacións poderán tirar proveito tamén das ferramentas de creación de imaxe mediante IA para así enriquecer documentos e presentacións.
Esta tecnoloxía tamén se aproveita para resumir contidos para así dar unha visión máis práctica de notificacións ou de mensaxes (pois non se amosan as primeiras liñas, senón unha breve descrición); tamén é posible realizar gravacións de notas e chamadas de teléfono para poder logo transcribilas e resumilas (advertindo no caso das chamadas de voz aos participantes na mesma). E incluso os nos chats tamén se incorpora unha nova utilidade semellante aos memoji e animoji, chamada genmoji, xa que este tipo de adhesivos créanse mediante IA xenerativa.
Siri deixará de ser parva
Con respecto ás edicións de fotografía mediante IA (moi populares nos móbiles de Samsung e Google) o uso de Apple Intelligence tamén xoga o seu papel, por exemplo, co uso da ferramenta Clean Up que permite detectar e borrar elementos sobrantes do fondo dunha fotografía sen modificar accidentalmente o suxeito principal; aínda que o uso realmente interesante da IA será o feito de que as fotografías e vídeos poidan localizarse mediante instrucións en linguaxe natural.
Pero a grande revolución da Apple Intelligence é a súa integración en Siri, o asistente de Apple que foi tan criticado nos últimos anos pola súa case nula evolución nos seus 13 anos de vida. Agora o asistente entenderá mellor a linguaxe natural (incluso cando nos trabamos e reformulamos a petición), será consciente do contexto, poderá seguir a conversa e incluso permitirá saltar entre o control por voz e mediante texto en calquera momento.
O asistente deste xeito non só se comunicará mellor co usuario, senón que tamén terá máis posibilidades con outras aplicacións, operando como un asistente de verdade, non só coas aplicacións creadas por Apple, senón tamén coas aplicacións de terceiros, xa que os desenvolvedores contarán con ferramentas para adaptar as súas aplicacións para que poidan tirar proveito das posibilidades do asistente.
Aínda que a intención de Apple é que a meirande parte das funcións de IA se executen en local, para non comprometer a privacidade do usuario, en moitos casos terán que empregar a nube, para o que presenta a solución Private Cloud Compute, que promete empregar cifrado de datos cando se usen as funcións de IA fóra do dispositivo.
Outro detalle salientable é que, cando o desexemos, tamén poderemos facer uso de ChatGPT, que se entrega dentro das funcións de IA de Apple, asegurando a compañía que no futuro incorporarán tamén outras solucións de IA no mercado. No caso de ChatGPT o seu uso será de balde, aínda que os usuarios que pague polo servizo tamén poderán identificarse para empregar funcións máis avanzadas. Nos casos nos que se use unha IA fóra do control de Apple o sistema advertirá ao usuario para que sexa consciente do manexo de datos por parte dun terceiro.
Datas e dispositivos
Pero as novidades relativas a Apple Intelligence, que serán de balde para os usuarios, non chegarán a todos os dispositivos, xa que no caso do iPhone precisará como mínimo un iPhone 15 Pro ou Pro Max, mentres que en tabletas e ordenadores precisará como mínimo que conten cun procesador M1 (e para algunha función incluso se esixirá un mínimo de 16 GB de RAM).
Apple Intelligence chegará en probas a iOS 18, iPadOS 18 e macOS Sequoia no outono, pero cun atranco moi importante: inicialmente só estará dispoñible en inglés de Estados Unidos. Ao resto de idiomas non chegará até 2025 (sen detallar a que altura do ano).
Na mesma liña tamén anunciaron que Apple Vision Pro chegará o 28 de xuño a China, Xapón e Singapur; e o 12 de xullo chegará a Alemaña, Australia, Canadá, Francia e Reino Unido. Queda así España fóra do calendario de lanzamentos deste produto que está a ter unha recepción bastante tibia, xa que a expectación inicial suscitada non conseguiu manterse varias semanas, e agora o visor de realidade estendida de Apple carece da atención do público xeral.
Conferencia inaugural da WWDC 2024