Sophia @princesinhamt
SAÚDE

iOS 26: Novidades visuais impressionam e impulsionam a Apple

2025 word1
Grupo do Whatsapp Cuiabá

CUPERTINO – Pode não parecer, mas a Apple atravessa um momento crítico. O iPhone continua dominando o mercado (ocupa as 4 primeiras posições entre os 10 smartphones mais vendidos no mundo no primeiro trimestre de 2025), mas as ações da empresa caíram bastante, 16,8%, desde o começo do ano.

Isso tem a ver com a guerra tarifária entre Estados Unidos e China, que pode atingir em cheio a Apple. Mas ela também enfrenta desafios legais (as regras da App Store vêm sendo questionadas na Justiça dos EUA), e sobretudo tecnológicos: problemas no desenvolvimento da Apple Intelligence, sua suíte de IA.

Ao apresentar a Apple Intelligence, em 2024, a empresa prometeu uma função revolucionária. A assistente virtual Siri, agora turbinada por IA, seria capaz de ler e entender as informações exibidas na tela do iPhone e agir proativamente de acordo com elas. Poderia, por exemplo, cruzar o conteúdo do iMessages com o calendário do iOS – e lembrar a você que aquele filme ou série, sobre o qual um amigo falou na semana passada, estreia amanhã. 

Outro exemplo. Ao avistar uma pessoa de cujo nome não lembra, você poderia discretamente perguntar à Siri: “qual é mesmo o nome do sujeito com quem tive uma reunião, no local “X”, dois meses atrás?”. A Apple Intelligence consultaria o seu calendário – e, em poucos segundos, levantaria o nome da pessoa. Lendo os dados de todos os apps, e usando IA para interpretar e relacionar as informações, ela seria capaz de fazer várias outras coisas, todas inéditas. 

Essas habilidades, que receberam o nome de onscreen awareness (“percepção da tela”), prometiam colocar a Apple na liderança da próxima onda da inteligência artificial, caracterizada por algoritmos mais espertos, integrados ao sistema operacional – um passo à frente dos atuais bots de texto. Só havia um problema. A tecnologia não estava pronta. 

A Apple foi adiando o lançamento da função, até admitir que vai precisar de mais tempo para desenvolvê-la, e a onscreen awareness pode demorar até 2026. Em maio, a empresa decidiu apagar do YouTube uma propaganda que mostrava essa característica da Apple Intelligence. Foi um gesto de honestidade e humildade, mas também embaraçoso. Arranhou o retrospecto impecável da Apple – que, ao contrário das outras gigantes da tecnologia, sempre foi conhecida por só demonstrar tecnologias reais e prontas (nada de vaporware).

A empresa está tentando reagir. Afastou John Giannandrea, um especialista em IA que ela trouxe do Google em 2018, do comando da Apple Intelligence – e colocou no lugar Mike Rockwell, o executivo que liderou o desenvolvimento do headset Vision Pro. Giannandrea, segundo fontes internas da Apple citadas pela agência Bloomberg, tinha um estilo considerado lento.  

Como a nova Siri ainda não está pronta, a Apple elegeu outra coisa para ser a principal novidade do Worldwide Developers Conference 2025 (WWDC 25), seu evento anual de software: novas versões de todos os seus sistemas operacionais, incluindo um novo iOS.

Passei as últimas 24h rodando a primeira versão de desenvolvimento do iOS 26, que instalei num iPhone 16. O destaque do iOS 26 é sua interface, que adota o novo visual Liquid Glass.

A Apple diz que é a maior mudança desde o iOS 7, lançado em 2013. Mas, na prática, o novo visual do sistema não é um salto tão dramático quanto a retórica da empresa tenta fazer crer. É uma evolução bem vinda e bem executada, que deixa a interface do iPhone mais bonita. 

Seu principal elemento gráfico, que a Apple batizou de loupe (“lupa”, em inglês), é um bloquinho retangular feito de vidro, que serve para destacar o item que você está selecionando. Esse bloquinho aparece em menus, quando você seleciona alguma opção deles (veja no vídeo acima), e também ao selecionar pedaços de texto (veja abaixo). 

apple-ios
(Apple/Reprodução)

Em ambos os casos, funciona bem. Nos menus, a função do bloquinho de vidro é fácil de entender (e o resultado visual fica bonito). E ele ajuda bastante a selecionar texto para apagar, recortar ou copiar em mensagens – algo que no iOS atual, e também no Android, costuma ser uma tarefa meio chata/imprecisa devido às alças de seleção pequenas.   

Os demais elementos da interface do iOS 26, como os botões, as notificações e os campos de entrada de texto, também são de vidro. O resultado é especialmente bonito no navegador Safari e no aplicativo Apple Music, no qual os elementos de vidro reagem em tempo real às cores do que está passando pela tela, atrás deles (veja abaixo).

A animação é altamente precisa e rápida – o que talvez gere uma certa carga na GPU (o chip de vídeo) do smartphone. O iOS 26 funcionou perfeitamente, sem qualquer lentidão ou engasgo, durante meu dia de teste. É um bom sinal (e notável em se tratando de um developer beta). 

Mas eu instalei o novo iOS num iPhone 16. A performance em aparelhos mais antigos (quando o iOS 26 for liberado ao público, nos próximos meses, ele será compatível com o iPhone 11 em diante) ainda é uma incógnita. A Apple diz que otimizou bem o sistema, e ele não deverá pesar mesmo em iPhones mais antigos. A conferir.

apple-ipados
(Bruno Garattoni/Superinteressante)

O único ponto em que a transparência não parece perfeitamente calibrada é o Control Center. Se você estiver usando ícones monocromáticos ou translúcidos (uma novidade), ele pode ficar um pouco difícil de ler – veja o exemplo acima, capturado no iPadOS 26. Nada que um tiquinho a mais de opacidade não resolva.   

Outra mudança do iOS 26 está nos wallpapers 3D: a foto se altera sutilmente de acordo com o movimento do iPhone na mão, dando a impressão de tridimensionalidade. Na vida real, impressiona (o vídeo acima, 2D, não consegue demonstrar totalmente o efeito).  

Mas o resultado depende da composição da foto (você pode usar qualquer uma: o iOS analisa a imagem, e destaca o elemento em primeiro plano). Pedi a um engenheiro da Apple que criasse um wallpaper 3D na hora, ele tirou uma selfie – e o resultado ficou menos impactante, com menos efeito 3D, do que nas imagens pré-selecionadas pela empresa.

As mudanças visuais no iOS 26 servem para contentar os usuários de iPhone, dando a eles algo interessante enquanto a Apple Intelligence “pra valer”, com a Siri dotada de onscreen awareness, não chega. Também alinham a interface gráfica de todos os dispositivos da Apple, que passam a adotar a mesma linguagem visual, a Liquid Glass. 

Ela foi inspirada no headset Vision Pro. Mas o Vision Pro é um produto mais “aspiracional”, para mostrar o que a Apple é capaz de fazer. Embora seja um triunfo de engenharia, não se tornou um sucesso comercial (segundo rumores, a Apple teria até reduzido sua produção). Se é assim, por que adotá-lo como inspiração para iPhones, iPads, Macs, Apple Watches e demais dispositivos da empresa?

O aparente paradoxo tem levado o mercado a especular que, na verdade, a Apple esteja preparando o terreno para lançar um óculos de realidade aumentada (que, ao contrário do Vision Pro, poderia ter boas chances de se tornar um dispositivo de massa). 

Pergunto isso a Alan Dye, vice-presidente de “design de interfaces humanas” da Apple. Dye é um dos executivos mais poderosos da empresa: ocupa uma posição que já foi do inglês Jony Ive. Também é um nerd do design, que cismou com o kerning (espaçamento entre as letras) já na infância, ao aprender a escrever o próprio nome.

Dye primeiro reage como executivo, e se esquiva da pergunta. “Estamos aqui para falar do que estamos apresentando hoje.” Mas então sorri de forma levemente enigmática – e, mesmo medindo as palavras, não consegue evitar uma resposta intrigante. “Essa linguagem de design [a Liquid Glass] serve muito bem à visão que nós temos do futuro.” 

O jornalista viajou a convite da Apple.

Fonte: abril

Sobre o autor

Avatar de Redação

Redação

Estamos empenhados em estabelecer uma comunidade ativa e solidária que possa impulsionar mudanças positivas na sociedade.