O AI da Apple não vem de “artificial intelligence”, mas de Apple Intelligence. E os novos recursos do iPhone baseados em inteligência artificial generativa foram importantes novidades apresentadas nesta tarde. A Apple inclusive surpreendeu, com funcionalidades integradas a ferramentas de empresas terceiras, como Google e OpenAI, coisa que não é típico dos produtos nem do sistema da empresa de Steve Jobs.
Por exemplo: o conceito de “visual intelligence”, com o qual o usuário pode usar imagens captadas pelo telefone para fazer consultas ao Google ou pedir ajuda ao ChatGPT. A Apple jura que as imagens captadas não são armazenadas, como as da câmera, e que o usuário tem total controle sobre a privacidade das informações que capta e consulta.
Assim, o dono de um iPhone 16 pode apontar para uma bicicleta na rua e saber onde comprar uma igual; apontar para um gráfico em um livro científico e pedir ajuda ao ChatGPT para interpretá-lo; ou consultar cardápio e horários de um restaurante virando a câmera para a fachada – três exemplos que foram usados na apresentação de Craig Federigni, vice-presidente de Engenharia de Software.
Quer encontrar uma foto, mas não lembra quando nem onde ela foi feita? Basta procurar pela descrição: "Maria dançando de vestido vermelho", e a Apple Intelligence vai encontrá-la para você. O mesmo vale para buscar momentos específicos dentro de um vídeo.
Os recursos de IA generativa também aumentaram a capacidade do iPhone de interpretar a própria vida do seu dono. Vejamos as novas capacidades da Siri, a assistente pessoal da maçã:
- Entende a fala do usuário mesmo se ele gaguejar ou errar o nome do que procura;
- Integra e obedece a mensagens de texto e voz juntas. Por exemplo: alguém manda uma mensagem recomendando um álbum. Você fala: “toque esse disco”, e já sai ouvindo;
- Entende comandos de voz direcionando ações para os diversos apps do smartphone, como “atualizar o endereço de João da Silva na agenda” ou “mandar as fotos do churrasco de sábado para Érica”.
* Essas funcionalidades serão lançadas primeiro no mercado norte-americano apenas; até dezembro, em outros países de língua inglesa e, a partir de 2025, para outros mercados/idiomas pelo mundo.
Nas ferramentas de apenas texto, a IA também vai atuar muito além da correção da ortografia: pode revisar um texto e sugerir mudanças antes da publicação em uma plataforma pública, ou adaptar uma mensagem para o seu chefe, para um tom de voz mais formal.
E, com imagens, será possível criar emojis que não existem para inserir em mensagens, apenas digitando a descrição (“sapo caubói”), ou mesmo imagens inteiras a partir de comandos, da mesma forma que plataformas como OpenArt.
As novas funções do iPhone são mais um passo na “banalização” da inteligência artificial, colocando as entregas da tecnologia no dia a dia de qualquer um que possa pagar quase R$ 10 mil pelo smartphone.
Ainda é para poucos, mas indica um caminho que muito em breve será trilhado por todos os demais fabricantes.
Ferramentas que há poucos anos só estavam ao alcance de desenvolvedores hoje estão disponíveis em plataformas — pagas ou gratuitas — e em breve, estarão dentro do seu bolso.
O iPhone 16 começa a ser vendido no Brasil ainda neste mês, pelo site da Apple, com preço a partir de R$ 7.779.
Mais detalhes aqui.
Siga a coluna no Instagram: @conexaodigital