Tempo de leitura: 6 minutos

 

Escute aqui - UV podcast

Na repercussão do Podcast Rx – Por dentro da sua próxima receita médica! com o superintendente de Inovação e Dados da FIDI, Igor Santos, que hoje também exerce, em Portugal, a função de Chief Medical Officer da Ionic Health, o oftalmologista Paulo Schor revela que a conversa o fez lembrar da época em que aprendeu programação e acompanhou a evolução da tecnologia como um todo. Ele ressalta que hoje é comum a leitura de livros através das telas e que cada vez mais as pessoas estão deixando o papel de lado, e explica como esse novo hábito interfere na parte oftalmológica.

“Eu gostaria de falar um pouco sobre o que se passou pela minha cabeça depois da minha conversa com o Igor, que é um visionário. Ele é um médico que atualmente trabalha com questões de lógica avançada, vamos dizer assim, e que questiona bastante o modo como isso tem sido visto, ensinado e, principalmente, aprendido”, comenta o oftalmologista, esclarecendo que dessa conversa surgiram várias lembranças, uma das quais quando chegaram os primeiros computadores programáveis para o grande público. “E isso foi na década de 1980, quando começamos a ter acesso aos TK computadores, que vieram das mãos de empresas nacionais, como a Gradiente, e também internacionais (Sanyo)”, aponta Schor.

Ele comenta que naquela época havia a possibilidade de gravar comandos de programação em fitas cassete. “Esse foi um avanço e um empoderamento e quase que uma ‘gameficação’ para quem gostava de ver os eletrônicos funcionarem. Meu caso e de vários amigos daqueles tempos”, relembra, salientando que era preciso saber programar. “E saber programar naquilo que o Igor chama de baixo nível, que significa programação hard mesmo, programação raiz, que na época era o Basic”, revela o cirurgião. Ele explica que o Basic era a primeira linguagem de programação que chegou para as pessoas, em que eram definidas posições do cursor na tela, ações que o cursor ou que o objeto que eram desenhados poderiam ter e inputs que poderiam ser dados ou pedidos.

“E vários de nós fomos nessa linha, eu fui um deles. O que aconteceu logo depois foi uma curiosidade contínua”, destaca, informando que foi quando decidiu fazer um curso de programação para entender o que estava por trás daquilo. “O que era de mais baixo nível ainda em relação ao que eu estava escrevendo em um terminal, que era aquela tela azul, e que fazia uma ação na própria tela a partir da leitura daquelas fitas cassete que foram gravadas de comandos que eu dei; eu queria saber o que estava por trás daquilo”, revela, esclarecendo que estava indo na direção quase que oposta ao que o mundo ia. “Eu estava indo na direção cada vez do mais básico, para entender o mecanismo original e, a partir do entendimento do mecanismo original, aí sim escala”, complementa.

Schor diz que o que se mostrou, entretanto, foi um caminho um pouco diferente. “Foi um caminho no qual a partir do desenvolvimento e do trabalho na usabilidade dessas ferramentas, que passaram por ter esse cuidado e esse aprimoramento, as chamadas ferramentas de alto nível, houve uma popularização do seu uso, então todo mundo que era tão louco como eu queria saber como funcionavam os zeros e os uns atrás do próprio Basic”, observa, pontuando que, em geral, as pessoas queriam uma coisa mais feita para que resolvessem os problemas do seu dia a dia. “E então esse GAP acabou sendo alguma coisa que para mim foi relativamente frustrante, mas que popularizou muito o próprio computador”, completa.

Ele comenta que depois houve a entrada da Apple no mercado como sendo um computador que estava a um passo à frente dos outros. “A Apple não só entregou mais formatado o modo de interagir com a tela através do mouse, que antes era preciso datilografar tudo, como também instrumentos gráficos, sendo um dos seus primeiros programas muito utilizados, pois eles formatavam, fabricavam letras, isto é, nós fazíamos o nosso próprio alfabeto”, analisa, salientando que quem conhece a história do Steve Jobs sabe que ele passeou bastante pela caligrafia. “Dessa maneira, ele transfere isso para a sua empresa e oferece à população na década de 1980 letras personalizadas, o que era muito lúdico, divertido, e era um jeito de entrar nesse universo da tal da computação de mais alto nível”, cita o médico.

O oftalmologista pontua que isso foi evoluindo com ferramentas computacionais, com a entrada pesada da Microsoft, com pacotes como Excel, Word, depois PowerPoint e várias outras ferramentas apareceram para que fosse possível montar slides, que antigamente eram fotos e depois passaram a ser slides feitos no próprio computador. “Posteriormente, começamos a projetar isso na tela. Também no lado do hardware, as coisas andaram um pouco do baixo para o alto nível e eu não me arrependo em nada de ter participado e vivido nessa época do baixo nível, quando a gente montava o computador: comprávamos placa, memória, que era pouca, comprávamos a CPU dos periféricos etc.”, informa, esclarecendo que se sabia qual era o soquete, o slot, ICS, twain (Technology Without an Interesting Name – Tecnologia Sem Nome Interessante), e isso acabou sendo parte do que ia dentro do computador.

O cirurgião afirma que na época aprendeu a fazer tudo isso. “Nós tínhamos livros de como montar o 186, o 286, o 386, a fazer o overclock etc. E aprender sempre é uma coisa que acaba sendo útil e hoje, por conta desse aprendizado todo, claro que eu me viro melhor em mexer com essas traquitanas tecnológicas, mesmo que atualmente elas sejam máquinas mais fechadas do que provavelmente eu me viraria se não tivesse tido essa exposição toda à tecnologia e às máquinas”, garante o especialista. Ele diz parecer um pouco óbvio que nos dias atuais as pessoas saibam mexer com computador, mas não é. “Eu queria chamar a atenção de vocês que não é uma realidade inconteste essa de que as pessoas sabem mexer em computador. Mesmo estando muito longe hoje do tal do baixo nível; não é mesmo!”, avalia Schor.

Conforme explica o oftalmologista, em primeiro lugar porque usar o computador não é uma movimentação natural, nem do corpo, nem dos olhos, nem da mente. “Isso é um artifício que foi colocado na nossa vida, mas há as pessoas natas digitais, que nasceram com a condição de ter um computador na sua frente, porque muita gente que nasceu há dez, 15, 20, 30 anos, que nunca tiveram condições de ter um computador, não são natas digitais”, pontua o médico, salientando que para essas pessoas continua não sendo natural mexer em um computador. “E eu acho que esse distanciamento, essa iniquidade é fundamental de ser prevista daqui para frente, não é à toa que todos os governos têm na digitalização e na alfabetização digital uma bandeira muito forte”, acrescenta.

Para o cirurgião, a evidência que temos de que a usabilidade dos papéis para leitura é melhor do que as habilidades do computador é oftalmológica também. “Quando nós lemos, baixamos um pouco a pálpebra que cobre a córnea e isso faz com que diminua a evaporação da nossa lágrima. Nós conseguimos ler durante mais tempo sem piscar do que olhar na tela e evapora mais lágrima e, com isso, o olho fica seco mais rápido”, comenta, enfatizando que essa, talvez, seja uma evidência racional teórica do uso do computador como alguma coisa muito recente e que não deve ser dada como finalizada. “Estamos, portanto, adaptados ao computador? Não, não estamos”, declara, dizendo que uma última coisa que queria abordar é sobre programação como linguagem, como razão, como lógica, que, na sua opinião, são questões relativamente diferentes.

“De vez em quando juntamos as duas coisas. Uma é a linguagem da programação, que é a língua mesmo. As línguas têm a sua lógica própria, japonês tem sua lógica própria, alemão tem sua lógica própria e, além da lógica própria, temos um monte de ‘decoreba’. Não tem como aprender inglês sem decorar, sem ouvir, sem memorizar cada palavra”, analisa, ressaltando que podemos memorizar as palavras em inglês e vamos falar inglês provavelmente melhor do que se só soubermos a lógica da língua inglesa. “E aí a gente tem uma coisa que é paralela, no meu entender, assim como na programação, que para aprender uma linguagem de programação – Cobol, Basic, Fortran, Linux -, qualquer coisa que seja, precisamos memorizar comandos, entender o léxico, o dicionário, as palavras, e depois precisamos saber a lógica, são coisas paralelas”, enfatiza.

Ele aponta que por isso que quando se fala em programação como uma execução, como um exercício de lógica, deve-se ir um pouco mais a fundo. “A programação pode ser usada como um exercício de lógica, o que seria ótimo. A lógica deve ser estimulada entre as pessoas, até porque essa é uma função humana que está bastante em declínio. Hoje temos muito pouca lógica sendo usada quando vamos analisar fatos, quando verificamos se as evidências são reais ou fake news. Então, isso deveria ser muito estimulado”, reforça o médico, observando que isso não vem naturalmente só com a programação, só com o entendimento da linguagem. “Isso vem mais além. Precisamos ter escolas de lógica, que podem ser feitas de outro jeito também”, finaliza Schor.

Compartilhe esse post