No passado dia 9 de Janeiro, ao ouvir Steve Jobs apresentar o iPhone, prometido para entrar no mercado americano em Julho deste ano e que surgirá na Europa até ao final do ano, houve duas coisas que me chamaram a atenção:
- O iPhone terá o Mac OS X incorporado. E a mensagem a este respeito foi bem sublinhada: não criámos um mini-sistema operativo para o iPhone... o iPhone não corre uma mini-versão do navegador Web Safari. É o mesmo Safari que corre no Mac. And so on, and so on... in a iPhone everything is equal than in a Mac. That seems me very interesting!!
- O iPhone usa um ecrã, que é, ao mesmo tempo, teclado. Tudo me leva a crer que é o primeiro da sua espécie, pelo menos a deixar a bancada dos protótipos, que permite usar dois dedos em simultâneo para executar funções.
And what is the interest of these two features to accessibility?
Bom, aparentemente nada, ou melhor aparentemente tudo; na realidade não sei.
O primeiro sublinhado de Steve Jobs, consistente como já nos habituou, leva-nos a pensar que o iPhone terá as aplicações que incorporam, de raíz, o Mac OS X. Se isso for assim, é razoável pensarmos que o VoiceOver, leitor de ecrã essencial para que pessoas cegas possam ler, fará parte do iPhone. O iPhone será assim, à semelhança do que sucede com os computadores Mac, o primeiro telefone a incorporar um leitor de ecrã de origem - i.e. Design Universal.
O segundo elemento que me chamou a atenção foi a forma como, usando dois dedos, geralmente o polegar e o indicador, Steve Jobs obtinha pormenores ampliados do ecrã. Juntando este elemento ao Zoom, aplicação que incorpora, de raíz, o Mac OS X, é legítimo pensar que o iPhone terá um sistema de ampliação que, entre outras coisas, é óptimo para pessoas com baixa visão.
Quanto ao primeiro elemento levanta-se uma interrogação pertinente. É uma verdade que os softwares de leitura de ecrã servem para fazer chegar a informação, principalmente, a pessoas cegas através de síntese de fala e até mesmo em braille (tudo indica que o Mac OS X Leopard vai trazer esta possibilidade). Mas, ... e o teclado de ecrã? Como poderá uma pessoa cega usar um teclado de ecrã? É uma boa pergunta e a resposta é, já hoje, uma realidade. Experimente, por exemplo, pressionar o canto inferior direito do ecrã das máquinas de venda de bilhetes no Metropolitano de Lisboa. Nalgumas delas terá uma agradável surpresa. Surpresa esta que permite às pessoas cegas comprar o bilhete. E as máquinas de venda de bilhetes do Metropolitano de Lisboa têm o teclado no ecrã. Mas há mais... mesmo nos PDAs, onde este problema de interação também existe, há investigação em curso. Veja-se, por exemplo, a memória descritiva do projecto BloNo - Bloco de Notas Electrónico, que tem por grupo-alvo pessoas cegas e gira em volta da interacção destes com teclados de ecrã de dispositivos portáteis.
Por último, talvez porque não há duas sem três e que enforma a estratégia de desenvolvimento do IPhone, há uma terceira característica, enumerada por Steve Jobs que poderá tornar-se vantajosa para pessoas com necessidades especiais. Tal como Tim Berners-Lee no final da década de 80 se confrontou com um problema de computadores com necessidades especiais que o levou a inventar a World Wide Web, também Steve Jobs destaca as necessidades especiais de cada uma das aplicações para justificar a construção de um teclado apropriado a cada uma. A solução parece passar por uma superfície plana, controlada com a ponta dos dedos, onde poderão ser concebidos "n" teclados capazes de responder a cada aplicação mas também, digo eu, a cada utilizador.
Para justificar o porquê da Apple se ter iniciado na construção do iPhone, Steve Jobs cita Alan Kay, que há 30 anos atrás, disse:
People who are really serious about software should make their own hardware.
Confesso que quando assisti pela primeira vez à apresentação, neste processo de tradução quase que inconsciente de inglês para português, percebi algo, que a ser verdade, seria ainda mais revolucionário:
People who are really serious about software should be transform it in "hardware".
Ou seja, para quê fazer botões físicos (teclas) se os mesmos podem ser feitos por software? Imaginei eu então que, aquilo que Jobs nos estava a dizer era que tinha encontrado a chave da personalização do hardware ao Homem: onde hoje há hardware temos de passar a ter software. Mas não me parece que o Jobs tenha dito isto de forma explicita embora o iPhone seja um exercício prático deste enunciado. O potencial desta estratégia para o Universal Access é fenomenal e fará do hardware peças irreconhecíveis no futuro. Será que era isto que o CEO da Apple nos quis dizer ao afirmar que o iPhone estava 5 anos adiantado face aos seus pseudo-concorrentes ou serei eu que tropeçei em algo que me fez ir parar uma década à frente?