Computadores, eletromecânicos e eletrônicos, são ferramentas úteis para cálculos massivos e processamento repetitivo de dados desde sua criação no início da década de 1940, mas essa utilidade sempre esbarrou na complexidade de seu uso e ai entram em cena as GUIs (Graphical User Interfaces - interfaces gráficas com o usuário).
As GUIs foram inicialmente pesquisadas por Douglas Engelbart a partir de 1959, dando origem ao projeto NLS, no SRI-ARC, culminando com a apresentação de dezembro de 1968 que atualmente é conhecida como "The Mother of all Demos", usando mouse, ponteiro, cursor, edição de texto em ambiente gráfico e "livechat" sobreposto.
Douglas Engelbart na "The Mother of All Demos", de 1968 .
O mais conhecido spin-off do NLS são as pesquisas do Xerox-PARC, que espalharam os conceitos de GUI junto com os computadores Alto ao longo da década de 1970.
![]() |
Computador Xerox Alto, de 1973. |
Posteriormente a Apple se destacou com o primeiro microcomputador comercial de uso pessoal com GUI, o Lisa, de 1983, que foi criado baseando suas ideias nos desenvolvimentos feitos pela Xerox, que cedeu seu know-how para a Apple.
![]() |
Computador Apple Lisa, de 1983. |
O útil
SRI-ARC, Xerox-PARC, Apple e tantas outras empresas e empreitadas que surgiram a partir do início da década de 1980, buscavam sempre uma coisa: A forma mais produtiva com que o usuário pudesse interagir com o computador, de preferência, com a mais curta curva de aprendizado possível, a mais intuitiva. Revistas especializadas chegavam ao cúmulo de contar quantos cliques eram necessários para realizar operações mais típicas, no objetivo de analisar o quanto uma GUI ou seus aplicativos eram mais produtivos e úteis nas atividades cotidianas de trabalho.Surgem então os manuais HIG (Human Interface Guidelines - diretrizes para interação humana), que são manuais de como os programas devem se apresentar e interagir com o usuário dentro de determinada GUI, para que sejam, dentro do possível, os mais homogêneos entre si, facilitando o entendimento do usuário que, uma vez que tenha aprendido a usar um aplicativo, sinta-se confortável no uso dos demais e tenha a curva de aprendizado ainda mais reduzida.
![]() |
Capa do HIG para o sistema operacional dos computadores Apple Macintosh. |
Praticamente todas as GUIs tinham o HIG entre seus manuais de desenvolvimento, com destaque especial para o sistema operacional dos computadores Macintosh.
![]() |
Computador Apple Macintosh, de 1984. |
O belo
Desde suas primeiras versões, o "System" dos computadores Macintosh da Apple apresentavam grande preocupação com a beleza e detalhamento das imagens que compunham sua GUI, mesmo no extremamente restrito monitor dos primeiros modelos (totalmente monocromático - P&B, sem tons de cinza -, com apenas 348 linhas de 512 pontos - isso mesmo, resolução de apenas 512x348).![]() |
Captura de tela do sistema operacional do Apple Macintosh, de 1985. |
Mas é a partir do início da década de 1990 que, com o aumento do poder de processamento dos microcomputadores pessoais, surgem GUIs com elementos mais coloridos, com detalhamento cada vez maiores: O MS-Windows 3, o Apple System 7, o IBM Workplace Shell (GUI do IBM OS/2), o Unix CDE, o BeOS etc.
![]() |
Captura de tela do sistema operacional BeOS, de 2000. |
A beleza e as funcionalidades buscam inerentemente a produtividade e o conforto, mas também a satisfação visual do usuário. É interessante observar que, nessa época (meados da década de 1990 a início dos anos 2000), era comum que alguns usuários "desligassem" certos efeitos visuais das GUIs que utilizavam, visando liberar mais poder de processamento para o trabalho a ser efetivamente realizado com o computador, demonstrando que a usabilidade e a produtividade já haviam sido atingidas e que algumas características das GUIs de então já eram supérfluas para o trabalho cotidiano.
O inútil
A partir dos primeiros anos do séc. XXI surgem as GUIs com efeitos complexos, inclusive usando o poder oferecido pelas GPUs, processadores das placas de vídeo que oferecem aceleração para renderização de imagens em 3D (que, para funcionar, requerem ainda mais processamento da CPU do computador). O Mac OS X da Apple é o pioneiro, seguido pela Microsoft com as versões Xp e Vista do Windows e a criação do projeto open source Compiz para Linux.![]() |
Captura de tela do compositor de tela Compiz para Linux, de 2007. |
Apesar de, nos primeiros anos, esses efeitos consumirem mais poder de processamento do que os computadores "consumer" pudessem oferecer (levando muitos usuários profissionais a continuar "desligando" efeitos), isso logo foi suplantado pelo poder crescente dos microprocessadores e das GPUs.
O problema é que toda a vasta beleza dos efeitos 3D em altíssima resolução, renderizadas em tempo real por GPUs, pouco ou nada contribuíram para a produtividade. Bem pelo contrário, na maioria dos casos, distrai e atrapalha a execução do trabalho objetivado, reduzindo a produtividade do usuário. Ainda pior, algumas características dos elementos que compõem a imagem da GUI vão na contra mão de mais de 3 décadas de estudo do assunto e que já eram muito bem embasados em sua conceituação e definição.
Isso tudo ocorreu em paralelo a outra novidade de então, a web, que se firma a partir do final da década de 1990, e começa a ditar a tendência de como as GUIs (não) devem ser.
O improdutivo
A web comercial, disponível para usuários pessoais, e os microcomputadores pessoais sendo vendidos como eletrodomésticos, geraram uma massa de consumidores que estão mais acostumados com o apelo publicitário do que efetivamente com vantagem prática ou produtiva do equipamento. Assim surgiu a busca do novo, do diferente, em detrimento do prático e do produtivo.Cada novo software, tecnologia web ou moda de design denota uma nova tendência nas GUIs, que tem pouco ou nenhum compromisso com o produtivo, com compromisso apenas com o comercial, ligado diretamente ao marketing.
Essa tendência da GUI da web acaba por afetar as GUIs dos sistemas operacionais e seus aplicativos, que oferecem novidades gráficas a cada versão lançada (que despreza a produtividade), uma vez que, a cada nova versão, exige toda uma nova curva de aprendizado do usuário apenas para continuar executando as mesmas tarefas. Essa tendência se justifica no fato de que, no séc. XXI, o computador perdeu o foco em ser uma ferramenta de produção de conteúdo e passou a ser um canal de comercialização de produtos, sendo obrigado a se apresentar como algo sedutor para um público que não o necessita como ferramenta de trabalho efetivamente.
Nenhum comentário:
Postar um comentário