Espaço

Informações

Aprenda a programar em apenas um ano com a Codecademy

Leia entrevista com fundador do site que promete democratizar o ensino de programação

Imagem

Em qualquer lista de profissões do futuro, lá estão os cargos destinados às pessoas com conhecimento de programação de sites, softwares e aplicativos móveis. A demanda cresce cada vez mais, mas ganhar proficiência nesse tipo de linguagem exigia até hoje uma imersão grande em livros e sites pouco didáticos e difíceis para quem não tem pelo menos algumas noções básicas da arquitetura da internet e da tecnologia no geral.

É justamente isso que espera mudar a Codecademy, uma startup fundada em Nova York e que quer democratizar programação. Fundada por dois ex-colegas da universidade de Columbia, Zach Sims e Ryan Bubinski,  a empresa já angariou US$ 12,5 milhões em fundos de capital para expandir seu curso gratuito de ensino de código e traduzi-lo para outras línguas além do inglês.

Reprodução

A companhia promete ensinar os padrões básicos das principais linguagens – HTML, CSS e JavaScript – em um plano de um ano, o chamado Code Year. Trata-se de um método inovador, que usa conceitos extraídos dos games para manter a atenção dos alunos e que pode finalmente tirar esses conhecimentos do gueto técnico.

O método da Codecademy é mais interativo e divertido do que as opções que já existiam no mercado, adotando conceitos da chamada ‘gamificação’ como a distribuição de badges ao final de cada lição e outras estratégias de engajamento. Até o prefeito de Nova York, Michael Bloomberg, anunciou que se tornaria aluno.

O software desenvolvido introduz o mundo da tecnologia da informação na prática, pedindo ao aluno que realize pequenas tarefas para se familiarizar com a escrita de código e que o faça no seu próprio ritmo. 

ReproduçãoEscritório da Codecademy em Nova York (Foto: Divulgação)

Os dois fundadores da empresa acreditam que todos, mesmo aqueles que não esperam trabalhar com internet, deveriam saber ao menos os conceitos principais da construção da web. Como a internet não parece que abrirá espaço para outra rede de comunicação tão cedo, resta-nos programá-la ou sermos programados. 

“Escrever código é uma alfabetização para o século 21”, afirma Zach Zims, co-criador do projeto: 

Quando e por que vocês decidiram abrir a Codecademy? Qual a situação atual da companhia?

A companhia foi fundada em agosto de 2011. Desde então, conseguimos levantar US$ 12,5 milhões de financiadoras como Union Square, Kleiner Perkins, Index Ventures e outras, e hoje empregamos dez pessoas full time. Milhões de pessoas já se cadastraram para participar dos nossos cursos.

Como se deu a criação do software de ensino?

Nós mesmos desenvolvemos o método. Queríamos criar uma experiência mais interessante e que prendesse mais as pessoas.

Começamos a empresa para resolver os nossos próprios problemas. Eu estava aprendendo a programar e quando comecei a trabalhar em alguns projetos com o Ryan, que já havia ensinado código na época que ambos éramos estudantes de Columbia.

Criamos a Codecademy porque eu queria construir uma melhor experiência de aprendizado para mim mesmo e uma melhor experiência de ensino para o Ryan.

Por que vocês consideram necessário que qualquer pessoa, mesmo aquela que não é particularmente interessada em internet, deva aprender código?

A programação faz as pessoas descobrirem o pensamento o algorítmico – e isso é bem maior do que só aprender código. Isso significa pensar na vida como um programa e nos meios de hackeá-la, torná-la mais simples e usar o raciocínio crítico.

Além disso, saber programação permite que a pessoa se torne uma empreendedora e também a encontrar mais oportunidades de trabalho.

O site continuará gratuito ou vocês têm planos de criar especializações pagas?

No momento, não pensamos nisso, queremos manter o site gratuito. Estamos focados em criar um melhor processo de aprendizado para os nossos usuários e expandir nossas atividades.

Vocês planejam traduzir mais cursos para o português?

Temos muitos usuários brasileiros e já contamos com alguns cursos traduzidos para o português, está nos nossos planos ampliar isso. Todas as nossas traduções são feitas pelos próprios usuários, então, se você que está lendo essa entrevista quiser nos ajudar, mande-nos um e-mail ou fale conosco através do site. 

27/06/2013 Posted by | Espaço | Deixe um comentário

A evolução dos computadores

Você sabia que computadores já chegaram a pesar 30 toneladas e custar 2 milhões de dólares? Conheça mais sobre a história da informática.

Das toneladas aos microchips

Não é segredo que o seu computador atual é fruto de uma evolução que levou décadas para chegar aonde está – e ainda está muito longe de chegar ao seu final. Se pensarmos que cerca de dez anos atrás os processadores ainda nem conheciam os núcleos múltiplos, imaginar as máquinas que inauguraram a informática é uma tarefa ainda mais complicada.

Você sabia que no início da década de 1950 já existiam computadores? Logicamente eles não se apareciam nem um pouco com o que temos hoje, mas já realizavam alguns cálculos complexos em pouquíssimo tempo. Nesses 60 anos, elementos desapareceram, componentes foram criados e parece até que estamos falando de assuntos totalmente desconexos.

Então prepare-se para conhecer um pouco mais sobre essa magnífica história. Para facilitar a leitura, atendemos às divisões de alguns autores especializados no assunto e separamos a história da informática em gerações. Agora aproveite para aprender mais ou para conhecer a importante evolução dos computadores.

As gigantes válvulas da primeira geração

Imagine como seria sua vida se você precisasse de uma enorme sala para conseguir armazenar um computador. Logicamente isso seria impossível, pois os primeiros computadores, como o ENIAC e o UNIVAC eram destinados apenas a funções de cálculos, sendo utilizados para resolução de problemas específicos.

Por que problemas específicos? Os computadores da primeira geração não contavam com uma linguagem padronizada de programação. Ou seja, cada máquina possuía seu próprio código e, para novas funções, era necessário reprogramar completamente o computador. Quer mudar o problema calculado? Reprograme o ENIAC.

ENIAC e suas 18 mil válvulas

Fonte da imagem: Wikimedia Commons/Domínio Público

Esses computadores gigantescos ainda sofriam com o superaquecimento constante. Isso porque em vez de microprocessadores, eles utilizavam grandes válvulas elétricas, que permitiam amplificação e troca de sinais, por meio de pulsos. Elas funcionavam de maneira correlata a uma placa de circuitos, sendo que cada válvula acesa ou apagada representava uma instrução à máquina.

Com poucas horas de utilização, essas válvulas eram queimadas e demandavam substituição. Por isso, a cada ano eram trocadas cerca de 19 mil delas em cada máquina. Sim, 19 mil válvulas representavam mais do que o total de componentes utilizados por um computador ENIAC. Como você pode perceber, esses computadores não saíam baratos para os proprietários.

Transistores e a redução dos computadores

As gigantes máquinas não estavam sendo rentáveis, pelos constantes gastos com manutenção. A principal necessidade era substituir as válvulas elétricas por uma nova tecnologia que permitisse um armazenamento mais discreto e não fosse tão responsável pela geração de calor excessivo, evitando superaquecimentos.

Foi então que os transistores (criados em 1947 pela empresa Bell Laboratories) passaram a integrar os painéis das máquinas de computar. Os componentes eram criados a partir de materiais sólidos conhecidos como “Silício”. Exatamente, os materiais utilizados até hoje em placas e outros componentes, extraídos da areia abundante.

Transistores em 1965

Fonte da imagem: Wikimedia Commons/Hohum

Existia uma série de vantagens dos transistores em relação às válvulas. Para começar: as dimensões desses componentes eram bastante reduzidas, tornando os computadores da segunda geração cem vezes menores do que os da primeira. Além disso, os novos computadores também surgiram mais econômicos, tanto em questões de consumo energético, quanto em preços de peças.

Para os comandos desses computadores, as linguagens de máquina foram substituídas por linguagem Assembly. Esse tipo de programação é utilizado até hoje, mas em vez de ser utilizado para softwares ou sistemas operacionais, é mais frequente nas fábricas de componentes de hardware, por trabalhar com instruções mais diretas.

Em vez das 30 toneladas do ENIAC, o IBM 7094 (versão de maior sucesso dessa segunda geração de computadores) pesava apenas 890 Kg. E por mais que pareça pouco, essa mesma máquina ultrapassou a marca de 10 mil unidades vendidas.

Imagem atual de um IBM 7090

Fonte da imagem: Wikimedia Commons/David Monniaux

Curiosidade: os computadores dessa segunda geração foram inicialmente desenvolvidos para serem utilizados como mecanismos de controle em usinas nucleares. Um modelo similar pode ser visto no desenho “Os Simpsons”, mais especificamente no posto de trabalho de Homer, técnico de segurança na Usina Nuclear.

Miniaturização e circuitos integrados

O emprego de materiais de silício, com condutividade elétrica maior que a de um isolante, mas menor que a de um condutor, foi chamado de semicondutor. Esse novo componente garantiu aumentos significativos na velocidade e eficiência dos computadores, permitindo que mais tarefas fossem desempenhadas em períodos de tempo mais curtos.

Com a terceira geração dos computadores, surgiram também os teclados para digitação de comandos. Monitores também permitiam a visualização de sistemas operacionais muito primitivos, ainda completamente distantes dos sistemas gráficos que conhecemos e utilizamos atualmente.

IBM da terceira geração

Fonte da imagem: Wikimedia Commons/Domínio Público

Apesar das facilidades trazidas pelos semicondutores, os computadores dessa geração não foram reduzidos, sendo que um dos modelos de mais sucesso (o IBM 360, que vendeu mais de 30 mil unidades) chegava a pesar mais do que os antecessores. Nessa época (final da década de 1970 e início da década de 1980) os computadores passaram a ser mais acessíveis.

Outro grande avanço da terceira geração foi a adição da capacidade de upgrade nas máquinas. As empresas poderiam comprar computadores com determinadas configurações e aumentar as suas capacidades de acordo com a necessidade, pagando relativamente pouco por essas facilidades.

Microprocessadores: o início dos computadores pessoais

Enfim chegamos aos computadores que grande parte dos usuários utiliza até hoje. Os computadores da quarta geração foram os primeiros a serem chamados de “microcomputadores” ou “micros”. Esse nome se deve ao fato de eles pesarem menos de 20 kg, o que torna o armazenamento deles muito facilitado.

Você consegue imaginar qual o componente que tornou possível essa redução das máquinas? Acertou quem disse que foram os microprocessadores. O surgimento dos pequenos chips de controle e processamento tornou a informática muito mais acessível, além de oferecer uma enorme gama de novas possibilidades para os usuários.

Em 1971, já eram criados processadores com esse novo formato, mas apenas na metade da década começaram a surgir comercialmente os primeiros computadores pessoais. Os Altair 880 podiam ser comprados como um kit de montar, vendidos por revistas especializadas nos Estados Unidos. Foi com base nessa máquina que Bill Gates e Paul Allen criaram o “Basic” e inauguraram a dinastia Microsoft.

A importância da Apple

Na mesma época, os dois Steves da Apple (Jobs e Wozniac) criaram a empresa da Maçã para se dedicarem a projetos de computação pessoal facilitados para usuários leigos. Assim surgiu o Apple I, projeto que foi primeiramente apresentado para a HP. Ele foi sucedido pelo Apple II, após uma injeção de 250 mil dólares pela Intel.

Apple II, sucesso absoluto

Fonte da imagem: Musée Bolo

Essa segunda versão dos computadores possuía uma versão modificada do sistema BASIC, criada também pela Microsoft. O grande avanço apresentado pelo sistema era a utilização de interface gráfica para alguns softwares. Também era possível utilizar processadores de texto, planilhas eletrônicas e bancos de dados.

Essa mesma Apple foi responsável pela inauguração dos mouses na computação pessoal, juntamente com os sistemas operacionais gráficos, como o Macintosh. Pouco depois a Microsoft lançou a primeira versão do Windows, bastante parecida com o sistema da rival.

E os ciclos tornam-se clocks

Até a terceira geração dos computadores, o tempo de resposta das máquinas era medido em ciclos. Ou seja, media-se um número de ações em curtos períodos de tempo para que fosse possível saber qual fração de segundo era utilizada para elas. Com os microprocessadores, já não era viável medir as capacidades dessa forma.

Por isso surgiram as medidas por clocks. Esta definição calcula o número de ciclos de processamento que podem ser realizados em apenas um segundo. Por exemplo: 1 MHz significa que em apenas um segundo é possível que o chip realize 1 milhão de ciclos.

Grande parte dos computadores pessoais lançados nessa época eram alimentados por processadores da empresa Intel. A mesma Intel que hoje possui alguns dos chips mais potentes, como o Intel Core i7 (sobre o qual falaremos mais, em breve). Como você pode saber, estas máquinas são muito leves e puderam ser levadas a um novo patamar.

Notebooks: a quarta geração portátil

Considerando o progresso da informática como sendo inversamente proporcional ao tamanho ocupado pelos componentes, não seria estranho que logo os computadores transformassem-se em peças portáteis. Os notebooks surgiram como objetos de luxo (assim como foram os computadores até pouco mais de dez anos), sendo caros e de pouca abrangência comercial.

Notebooks cada vez mais poderosos

Fonte da imagem:divulgação/Asus

Além dos notebooks, temos também os netbooks disponíveis no mercado. Estes funcionam de maneira similar aos outros, mas geralmente possuem dimensões e configurações menos atraentes. Ganham pontos pela extrema portabilidade e duração das baterias utilizadas, sendo certamente um degrau a mais na evolução dos computadores.

Hoje, o preço para se poder levar os documentos, arquivos e programas para todos os lugares não é muito superior ao cobrado por desktops. Mesmo assim, o mercado ainda está longe de atingir o seu ápice. Quem sabe qual será o próximo passo da indústria?

Múltiplos núcleos: a quinta geração?

Ainda estamos em transição de uma fase em que os processadores tentavam alcançar clocks cada vez mais altos para uma fase em que o que importa mesmo é como podem ser melhor aproveitados esses clocks. Deixou de ser necessário atingir velocidades de processamento superiores aos 2 GHz, mas passou a ser obrigatório que cada chip possua mais de um núcleo com essas frequências.

Chegaram ao mercado os processadores que simulavam a existência de dois núcleos de processamento, depois os que realmente apresentavam dois deles. Hoje, há processadores que apresentam quatro núcleos, e outros, utilizados por servidores, que já oferecem oito. Com tanta potência executando tarefas simultâneas, surgiu uma nova necessidade.

Processamento verde

Sabe-se que, quanto mais tarefas sendo executadas por um computador, mais energia elétrica seja consumida. Para combater essa máxima, as empresas fabricantes de chips passaram a pesquisar formas de reduzir o consumo, sem diminuir as capacidades de seus componentes. Foi então que nasceu o conceito de “Processamento Verde”.

Por exemplo: os processadores Intel Core Sandy Bridge são fabricados com a microarquitetura reduzida, fazendo com que os clocks sejam mais curtos e menos energia elétrica seja gasta. Ao mesmo tempo, esses processos são mais eficazes. Logo, a realização de tarefas com esse tipo de componente é boa para o usuário e também para o meio ambiente.

Sandy Bridge, da Intel

Fonte da imagem: divulgação/Intel

Outro elemento envolvido nessas conceituações é o processo de montagem. As fabricantes buscam, incessantemente, formas de reduzir o impacto ambiental de suas indústrias. Os notebooks, por exemplo, estão sendo criados com telas de LED, muito menos nocivos à natureza do que LCDs comuns.

…..

Não sabemos ainda quando surgirá a sexta geração de computadores. Há quem considere a inteligência artificial como sendo essa nova geração, mas também há quem diga que robôs não fazem parte dessa denominação. Porém, o que importa realmente é perceber, que ao longo do tempo, o homem vem trabalhando para melhorar cada vez mais suas máquinas.

Quem imaginava, 60 anos atrás, que um dia seria possível carregar um computador na mochila? E quem, hoje, imaginaria que 60 anos atrás seria necessário um trem para carregar um deles? Hoje, por exemplo, já existem computadores de bolso, como alguns smartphones que são mais poderosos que netbooks.

E para você, qual será o próximo passo nessa evolução das máquinas? Aproveite os comentários para dizer o que você pensa sobre essas melhorias proporcionadas ao longo de décadas.

15/06/2013 Posted by | Espaço | Deixe um comentário

Cientistas que mudaram o mundo: Alan Turing

As maiores criações do pai da computação.

Cientistas que mudaram o mundo: Alan Turing

(Fonte da imagem: Vida Universitária)

Alan Turing foi um incrível matemático, lógico e criptoanalista, cujos estudos e projetos se tornaram base para a tecnologia atual. É neste momento que muitos podem estar pensando: “Mas afinal de contas, o que esse cientista inventou de tão importante?”. A resposta deve estar, literalmente, na sua frente: ele é o motivo de você estar usando um computador neste momento.

Decifrando o Enigma

O primeiro destaque da vida de Turing veio quando ele estava perto dos 30 anos. Trabalhando em conjunto com uma organização inglesa, o matemático foi capaz de criar um sistema para traduzir os textos encriptados pelos alemães chamado “bombe”. Sua máquina era extremamente eficaz contra o equipamento inimigo, que usava uma encriptadora chamada Enigma para fazer com que as mensagens captadas pelos britânicos não fossem compreensíveis.

A bombe captava e identificava quando o sinal estava protegido pelo mesmo padrão da Enigma, para depois usar um padrão de lógica que ignorava informações que se contradiziam e gerar a mensagem verdadeira. Na época, já haviam algumas máquinas que faziam o mesmo, mas nenhuma tão bem quanto esta.

Cientistas que mudaram o mundo: Alan Turing

Versão reconstruída de uma bombe, no Museu de Bletchley Parck (Fonte da imagem: Wikimedia Commons)

O sistema da bombe usava mecanismos eletromecânicos e era extremamente avançado para sua época. Por isso, ele é muitas vezes considerado como o primeiro computador da história.

Turing e sua máquina

Por mais que a criação da bombe seja impressionante, seu título de “pai da computação” só veio com a criação de sua “máquina-automática”, atualmente conhecida por máquina de Turing.

A ideia do equipamento era bastante simples: o aparelho devia ser capaz de manipular símbolos em uma fita de acordo com uma série de regras para guardar informações. O conceito parece familiar? Pois deveria. Afinal, é assim que todos os computadores funcionam.

A lógica por trás da máquina de Turing pode imitar qualquer algoritmo de um PC, se mostrando especialmente útil para que as pessoas possam compreender as limitações da computação.

Cientistas que mudaram o mundo: Alan Turing

(Fonte da imagem: The History of Computer Project)

Todo o conceito da máquina de Turing foi então incorporado ao primeiro computador do matemático, chamado ACE (“Automatic Computing Engine” ou “motor de computação automática”). Infelizmente, o projeto sofreu vários problemas de atraso e custo, sendo construído apenas tempos depois e em uma versão mais simples.

Teste de Turing

Foi nesta época também que Alan Turing criou seu famoso teste, usado até hoje para descobrir o nível de inteligência de um programa de inteligência artificial. Esse teste não foi criado para analisar a capacidade de um computador de pensar por si mesmo, já que as máquinas são completamente incapazes disso, mas sim de identificar o quão bem ele pode imitar o cérebro humano.

Para isso, uma pessoa deve mandar uma série de perguntas para o computador, analisando as respostas dadas por ele. Caso essa pessoa não consiga diferenciar se o que foi dito pelo sistema foi elaborado por outro ser humano ou se veio de uma máquina, a inteligência artificial é definida como “inteligente”.

Atualmente, não é difícil encontrar softwares capazes de serem considerados inteligentes dentro dos moldes do teste – e nem são necessários de sistemas extremamente avançados. Chats virtuais, como o Robô Ed, são um bom exemplo de inteligência artificial capaz de enganar qualquer um.

Encontrando os padrões

Turing sempre foi considerado uma pessoa extremamente excêntrica por sua necessidade de buscar padrões, tanto na matemática quanto na própria natureza. Mas isso acabou se mostrando um fator importante para que ele criasse os computadores, ao mesmo tempo em que trouxe frutos interessantes para o ramo da biologia.

Depois de muito observar, Alan Turing escreveu, em seus últimos dias de vida, um artigo sobre a Morfogênese, uma área da biologia matemática que estuda o padrão como os seres vivos se desenvolvem. Usando por base cálculos como os números de Fibonacci e outras equações complexas, ele conseguia, por exemplo, prever qual seria o número de listras em um tigre ou a quantidade de pintas em uma onça.

Seu artigo nunca foi terminado, devido à sua morte. Mas o que já estava feito veio a ser comprovado décadas depois, com os estudos sobre o DNA. Por esse motivo, seus trabalhos são considerados um marco para a área.

…..

Alan Turing foi um dos homens de maior importância não só para seu tempo, como para a atualidade. Com estudos que não só foram base para a existência da inteligência artificial, mas de quase todos os aparelhos eletrônicos já feitos, e inventos que permitiram que a vida de incontáveis pessoas fossem salvas durante a Segunda Guerra, ele definitivamente merece seu título de “pai do computador”.

 

15/06/2013 Posted by | Espaço | 1 Comentário

Colossus: herói de guerra e um dos primeiros computadores do mundo

Projeto britânico ultrassecreto decodificava mensagens nazistas e era totalmente programável
.

(Fonte da imagem: Reprodução/Colossus Computer)

Em artigos sobre a história dos eletrônicos em geral, a máquina norte-americana gigante conhecida como Electronic Numerical Integrator And Computer (ENIAC) é normalmente creditada como o “pai dos computadores”, pois pertence a uma geração pioneira desses dispositivos. Tal fato até pode ser considerado verdadeiro – mas é ainda mais justo dizer que ele tem a guarda compartilhada com um aparelho chamado Colossus.

A máquina ocupa uma sala inteira, é formada por várias peças aposentadas há décadas e nem contava com recursos como tela ou memória. Mas ele surgiu anos antes do ENIAC, em janeiro de 1944, e tinha uma função ainda mais nobre do que fazer cálculos: decodificar mensagens trocadas entre soldados nazistas, permitindo que os Aliados antecipassem e neutralizassem os movimentos inimigos.

Ainda não está convencido da importância desse dinossauro dos eletrônicos? Abaixo, você conhece um pouco mais sobre o Colossus, o primeiro computador eletrônico e digital do mundo totalmente programável.

Uma aula de História

Calma, não pare o artigo depois do título acima – a trama envolve muita espionagem e tensão. Para compreender a necessidade de criar uma máquina como o Colossus, é preciso primeiro entender o contexto histórico da época. Ou seja, temos que voltar para 1939, início da Segunda Guerra Mundial.

Fora o sistema de ataque Blitzkrieg e as pistolas Luger, o exército alemão nazista contava com outra arma temida: a máquina Lorenz, um codificador de mensagens que permitia a criação de recados criptografados que eram transmitidos via rádio em códigos diferentes dos tradicionais Morse. Isso ocorria entre um posto militar até um acampamento avançado, por exemplo, ou até entre Hitler e seus generais de maior confiança.

As rodas de codificação da temida Lorenz. (Fonte da imagem: Reprodução/Colossus Computer)

Por conta dessa técnica, que será explicada mais para frente, as mensagens enviadas pela Lorenz demoravam cerca de seis semanas para serem decodificadas pela aliança entre Inglaterra, Estados Unidos e Rússia – um esforço inútil, pois as tropas inimigas já estariam em outro lugar e com outros planos depois de tanto tempo.

Era preciso inventar um aparelho ainda mais moderno, potente e inteligente que o alemão. Nascia aí um dos centros de inteligência mais importantes da Segunda Guerra Mundial – e, dentro dele, o Colossus.

As mentes brilhantes de Bletchley Park

Assim como os Superamigos têm a Sala de Justiça e James Bond abriga-se na sede da MI6, a Inglaterra da vida real possuía um local secreto que reunia alguns de seus melhores homens – que, neste caso, pesquisavam novos recursos para a computação, que ainda dava os primeiros passos.
Trata-se de Bletchley Park, uma mansão no distrito de Milton Keynes, 80 quilômetros ao noroeste de Londres. Lá, funcionava a Government Code and Cypher School (GC&CS), uma divisão especializada em decodificação.

Quem aprovou a iniciativa foi ninguém menos que o primeiro-ministro Winston Churchill. Ele forneceu recursos econômicos ilimitados para o local, além do recrutamento dos melhores engenheiros de todas as áreas. Um deles é o famoso Alan Turing, que ajudou no processo de criação do Colossus, assim como Tommy Flowers, Bill Tutte e Max Newman. Fora eles, cientistas poloneses que construíram o BOMBE, um decodificador mecânico, forneciam ainda mais projetos e dados para ajudar os ingleses.

A mansão de Bletchley Park. (Fonte da imagem: IEEE Computer Society)

Com um antecessor do Colossus, foi possível confirmar, por exemplo, que as tropas de Hitler realmente acreditavam que o desembarque do Dia D seria em um território diferente da Normandia, o que aumentou a confiança do exército para a operação mais decisiva do conflito.

Após a guerra, o local tornou-se irrelevante e foi desativado, sendo posteriormente transformado em um museu de história da computação. Os funcionários, também dispensados, espalharam-se por universidades de Estados Unidos e Europa, acabando em projetos como o ENIAC e outros pioneiros da área.

Como funcionava a codificação

A máquina Lorenz utilizava uma fita de papel que recebia uma sequência de furos que é a “versão visual” dos códigos. Ela utilizava um sistema duplo de criptografia: primeiro, a mensagem virava uma sequência de caracteres desconhecidos – nada de letras comuns. Em seguida, ela era novamente codificada, embaralhada em uma sequência pseudoaleatória, e só então transmitida via sinais de rádio por um telégrafo.

A tal fita de papel com os “furinhos” indicando caracteres obscuros. (Fonte da imagem: Picotech)

O problema é que o codificador funciona a partir da rotação de 12 rodas mecânicas que geram a aleatoriedade – ou seja, trata-se de um processo com chances limitadas e não tão aleatórias assim.
Notar o padrão da sequência (e, posteriormente, do código) era difícil, porém não impossível. Após descobrir o funcionamento da Lorenz, os cientistas “só” precisaram construir uma máquina que fizesse o processo reverso mais rapidamente que o trabalho manual.

Um verdadeiro colosso

Agora é hora de falar da máquina em si. Basicamente, o Colossus é uma máquina formada por oito grandes “gabinetes” de 2,3 metros de altura, divididas em duas seções de 5,5 metros de comprimento.

O sistema de válvulas de uma réplica do Colossus. (Fonte da imagem: Reprodução/Colossus Computer)

Separadamente, há um leitor com espaço para duas fitas contendo o sinal de rádio impresso em papel. Na primeira delas, está a mensagem a ser “traduzida”. Na segunda, uma repetição da sequência pseudoaleatória de codificação, que é aplicada à mensagem.

Cada vez que ambas as fitas eram totalmente lidas, a segunda era movida levemente, para que os códigos fossem aplicados com pequenas alterações. Cada teste recebia uma “pontuação” – e a rodada de melhor desempenho era aquela verificada pelos engenheiros.

Os gabinetes em visão lateral. (Fonte da imagem: Codes and Ciphers)

Em um dos gabinetes fica o painel de controle, em que o algoritmo contendo a sequência pseudoaleatória é configurado manualmente. O Colossus não possui um programa instalado, portanto era necessário acertar os pinos e alavancas a cada nova operação. A leitura é feita a 48 km/h por sensores fotoelétricos – e o primeiro modelo lia incríveis 5 mil caracteres por segundo.

Por fim, um painel de luzes e uma impressora mostram os resultados obtidos. Lembra-se do tempo de codificação das máquinas anteriores? Em vez de seis semanas, o Colossus reduzia esse trabalho para seis horas.

Algumas das válvulas dessa réplica são as originais, da década de 1940. (Fonte da imagem: IEEE Computer Society)

Ele também não é dotado de memória para armazenar dados. Para eliminar esse obstáculo, 2.400 válvulas eletrônicas com fios quentes no centro funcionam como um contador da pontuação obtida pelo Colossus, avisando o próprio sistema se o algoritmo já foi calculado.

Por conta delas, o Colossus raramente era desligado: a quantidade de calor gerada no momento de ativação da máquina poderia fritar todos os circuitos e estourar as válvulas do aparelho, algo que seria custoso até mesmo para Blechley Park. Por isso, o computador passava meses inteiros ligado – e, quando tinha que ser reiniciado, o processo era feito o mais lentamente possível.

 

….

Ao todo, foram produzidas 10 unidades do Colossus. Todas foram desmontadas total ou parcialmente após o fim da guerra, já que o projeto era ultrassecreto e permaneceu assim por mais três décadas.

A reconstrução para exibição e estudo foi possível apenas 50 anos depois, graças a um projeto que criou réplicas com partes de terminais telefônicos usados. Apesar de não existir mais em sua forma natural, o Colossus com certeza ocupa um lugar especial no hall da fama dos computadores – e dos bravos soldados da Segunda Guerra Mundial.

15/06/2013 Posted by | Espaço | Deixe um comentário

   

%d blogueiros gostam disto: