Espaço

Informações

O que é GPU?

Conheça um pouco mais sobre o principal componente responsável pelo trabalho gráfico nos computadores.

Uma placa de vídeo é composta por diversos circuitos e elementos eletrônicos, porém seu papel mais importante é o de comportar um processador dedicado especialmente para a renderização de gráficos em tempo real. Este tipo de processador é chamado de Graphics Processing Unit, também conhecido como GPU.

O que é GPU?GPU exposta em uma placa de vídeo (Fonte da imagem: Divulgação/BuyNewComputer)

Normalmente, a GPU fica localizada na parte mais central de uma placa de vídeo, rodeada pelos demais componentes do dispositivo. Como estes processadores geram muito calor enquanto trabalham, quase todos as fabricantes incluem um conjunto de dissipador e ventoinha acoplado ao chip para mantê-lo na temperatura ideal.

GPUs também podem ser encontradas em placas-mãe, permitindo que o PC seja plugado ao monitor sem a necessidade de uma placa de vídeo à parte. Essa configuração costuma ser chamada de “GPU onboard”. Geralmente, modelos desse tipo são capazes de suprir apenas as necessidades básicas de vídeo, e uma placa “offboard” acaba sendo necessária para os jogos mais pesados.

O que é GPU?Asus MARS II, com duas GPUs NVIDIA GTX580 (Fonte da imagem: Asus)

Atualmente, as três maiores fabricantes de GPUs são a Intel, a NVIDIA e a ATI. A Intel, porém, produz processadores gráficos mais direcionados para aplicações de baixo custo integradas à placas-mãe, enquanto que a NVIDIA e a ATI atuam nos demais segmentos.

Quase sempre, o responsável por projetar, fabricar e unir os demais componentes de uma placa de vídeo à GPU costuma ser outra empresa que atua em parceria com os fabricantes dos chips. XFX, Asus, EVGA, MSI, Sapphire e Zotac estão entre as maiores montadoras de placas de vídeo da atualidade.

O que é GPU?GPU de um Xbox 360 (Fonte da imagem: Reprodução/XboxScene)

Processadores gráficos dedicados também estão presentes em dispositivos portáteis, sendo que a NVIDIA tem sido a principal atuante nesse ramo. Consoles de video game modernos também costumam confiar em uma GPU para a renderização dos gráficos dos jogos, incluindo o PlayStation 3, o Xbox 360 e o Nintendo Wii.

29/10/2013 Posted by | Espaço, Informações | Deixe um comentário

PS4 no Brasil: mais caro que uma Tekpix [infográfico]

Confira tudo o que poderia ser comprado com o dinheiro necessário para adquirir um PlayStation 4 aqui no Brasil

O PlayStation 4 finalmente teve seu preço anunciado para o mercado brasileiro. E, ao contrário do que os fãs dos consoles da Sony esperavam, ele não chegará às prateleiras com preços muito atraentes. Apesar de o valor nos Estados Unidos ser de US$ 400, aqui no Brasil ele vai custar R$ 4.000 — se ignorássemos todas as taxas envolvidas, poderíamos dizer que a cotação do Dólar PS4 é de R$ 10, enquanto a “cotação gamer” do Xbox One é de US$ 1 para US$ 4,40.

Enquanto o Xbox One será vendido por cerca de R$ 2.200, o PlayStation 4 é 1,8 vezes mais caro do que ele. Mas o que será que deixou o console japonês como um valor tão mais alto do que o do concorrente? As respostas poderiam estar nos impostos, nos custos de importação e também no valor agregado à marca fabricante. Mas isso só resolve uma parte dos problemas. Confira conosco…

Quanto realmente custa um PS4?

Considerando o valor de US$ 400 e a cotação de R$ 2,18 para cada dólar, chegamos ao valor de R$ 872. Depois disso, é claro que temos os valores de importação, taxas embutidas e impostos de circulação de mercadoria e incidência sobre valores importados. São essas taxas: II, IPI, PIS e COFINS, resultando em um valor de R$ 1.759,69. Sobre esse novo valor ainda é aplicado o ICMS (valor que varia de estado para estado), que levará o preço para R$ 2.145,96, em média.

PS4 no Brasil: mais caro que uma Tekpix [infográfico] (Fonte da imagem: Divulgação/Sony)

Ainda podemos aplicar um valor de R$ 200 para outras despesas do serviço aduaneiro, como despachos e transporte dentro do Brasil. Logo, chegamos a um total de R$ 2.345,96. Os outros R$ 1.650 são referentes ao valor da marca Sony no Brasil e também aos lucros da empresa. E, como já fizemos em outras ocasiões, decidimos criar um guia de alternativas para o investimento do valor de um PS4.

O que posso comprar com esse dinheiro?

Fizemos um levantamento de diversos produtos que podem ser comprados com o valor cobrado por uma unidade do PlayStation 4. A variedade é bem grande e em muitos casos podem ser adquiridas mais de uma unidade do mesmo eletrônico. Encomendando o PS4 diretamente da Amazon inglesa (já com todos os impostos), é possível trazer dois consoles para o Brasil.

PS4 no Brasil: mais caro que uma Tekpix [infográfico] (Fonte da imagem: Divulgação/Sony)

Da mesma loja e com a mesma legalidade, é possível também trazer um PS4 e um Xbox One com os R$ 4 mil. E a conta fica muito mais interessante quando colocamos outros aparelhos eletrônicos na conta: um Samsung Galaxy S4 e um iPad 4 cabem na mesma soma. Se voltarmos à geração anterior de video games, é possível comprar um PS3 e mais 16 jogos com preços de lançamento.

Para quem não gosta de ter aparelhos repetidos, uma grande solução é adquirir uma televisão LED 3D Smart da Samsung de 46 polegadas, que pode ser encontrada pelos mesmos R$ 4 mil. Por um pouco menos ainda é possível comprar uma câmera digital TekPix. Para os apaixonados pelo Xbox: um console Xbox One e 10 jogos novos em mídias físicas podem ser comprados pelo valor.

O valor da diferença

Como já dissemos anteriormente, existe uma quantia de R$ 1.720 referente à diferença entre o preço do PS4 no Brasil e o mesmo aparelho comprado e importado dos Estados Unidos — com todas as taxas de importação, não sendo um valor referente à aquisição dele pessoalmente nos EUA. E o que seria possível fazer com esse dinheiro? As respostas também são variadas.

PS4 no Brasil: mais caro que uma Tekpix [infográfico] (Fonte da imagem: Divulgação/Sony)

É possível comprar um televisor de boa qualidade com o valor, mas, caso você já tenha uma, há outras aquisições que podem ser feitas. Você pode adquirir uma câmera PS Eye, três controles DualShock e mais quatro ou cinco jogos (dependendo do valor deles) para se divertir com seus amigos. Isso considerando os preços no Brasil, então a quantidade de itens pode aumentar um pouco se pensarmos nos valores norte-americanos.

Reação bem-humorada

Apesar de alguns protestos por parte dos consumidores, boa parte das pessoas reagiu de forma bem-humorada ao anúncio do valor do PlayStation 4 aqui no Brasil. Algumas lojas virtuais como Ponto Frio e Walmart utilizaram seus perfis no Twitter para tirar sarro da situação e algumas páginas na internet foram criadas especialmente para satirizar a situação.

Um ótimo exemplo é o Tumblr “Troco PS4 Por”, que mostra uma grande, e inusitada, quantidade de itens que poderia ser comprada no lugar do PlayStation 4 pelo mesmo valor. A imprensa internacional também deu destaque ao preço do video game brasileiro e mostrou que ele é o mais caro de todo o mundo — mas esse posto o consumidor não queria ter, não é mesmo?

Teorias da conspiração

Um vídeo do vlogger Carlinhos Troll traz uma “teoria conspiratória” sobre o preço do PS4 brasileiro. Segundo ele, o valor absurdo é fruto de uma manobra da Sony (que não conseguiu incentivos fiscais do governo brasileiro) para fazer com que os consumidores comprem fora do país, em represália às decisões brasileiras. Vale dizer que essa impressão é do criador do vídeo e não reflete às opiniões do Tecmundo.

Continue lendo

17/10/2013 Posted by | Espaço | Deixe um comentário

MEMS Cam: a tecnologia de câmera que pode revolucionar fotos pelo celular

Conheça a nova tecnologia de foco automático para celular que é muito superior à técnica atual

 

O Nexus 5, próximo smartphone da parceria entre Google e LG, tem previsão de anúncio para 17 de outubro de 2013. Mas o aparelho em si não deve ser o único centro das atenções: os amantes da fotografia, especialmente de retratos feitos por dispositivos móveis, aguardam a demonstração de uma tecnologiaque vai estrear em celulares e deve aumentar bastante a qualidade das imagens capturadas.

Trata-se de um sistema de movimento baseado em MEMS (Micro Electro Mechanical Systems) de silício. Esse mecanismo de resposta a comandos eletrônicos é veloz e preciso, garantindo que a pessoa ou o objeto que você pretende focalizar seja rapidamente colocado em primeiro plano. Componentes como microfones, giroscópios e outros sensores de gadgets já são baseados em outros MEMS.

A tecnologia já existe em câmeras digitais compactas, mas diminuir o tamanho dos componentes e adequá-los a um smartphone é o desafio que acaba de ser superado. Abaixo, você conhece o funcionamento dessa técnica e como ela vai deixar suas fotos ainda mais profissionais.

Foco automático pré-MEMS

Segundo a Digital Optics, que desenvolve a tecnologia do MEMS para a fotografia, apenas 40% das câmeras de smartphones usam o recurso do autofoco. Mas essa técnica já atingiu seu limite – e, quando isso acontece, um novo método deve ser empregado. Para você ter uma ideia, a tecnologia atual de foco existe desde 1874, quando o primeiro modelo desse sistema foi patenteado.

A tal tecnologia jurássica é a de motores de bobina de voz (voice coil motor, ou VCM, na sigla original). Esse método usa atração e repulsão entre ímãs para gerar som a partir de eletricidade. O campo magnético gerado por esse processo movimenta a lente para uma posição na vertical diferente do sensor, enquanto molas fazem o papel de força compensadora.

MEMS Cam: a tecnologia de câmera que pode revolucionar fotos pelo celularO sistema antigo e atual de VCM (Fonte da imagem: Divulgação/MEMS Cam)

De forma geral, esses motores movimentam o módulo da lente junto com o eixo óptico da câmera, garantindo que o equipamento mexa-se para os lados e acompanhe o “alvo” do retrato. Além disso, um algoritmo de foco automático calcula a posição do objeto que será colocado em primeiro plano (isso nas máquinas digitais).

MEMS Cam: a tecnologia de câmera que pode revolucionar fotos pelo celularA diferença de tamanho e número de peças entre VCM (esquerda) e MEMS (direita).
(Fonte da imagem: Divulgação/MEMS Cam)

Apesar de integrar os smartphones atuais e garantir certa qualidade, esse componente é caro, maior e de menor desempenho, além de consumir mais energia e ter uma taxa relativamente alta de erros por conta da demora no processo de autofoco. O MEMS supera todos esses obstáculos, garantindo que o protagonista da sua fotografia, mesmo longe ou em um cenário cheio de outros elementos, fique sempre em destaque.

Por dentro do MEMS Cam

Basicamente, no autofoco, o sensor da câmera captura a imagem e o processador analisa o retrato para avaliar a estrutura da foto. Para que isso aconteça, os algoritmos do autofoco comandam os circuitos do motor atuador (VCM ou MEMS) de forma que eles movam a lente para outra posição.

Esse ciclo é repetido até que a posição mais adequada seja determinada – e, depois que isso acontece, as peças devem voltar à posição original. Em captura de vídeo, esse algoritmo fica “ligado” o tempo inteiro.

MEMS Cam: a tecnologia de câmera que pode revolucionar fotos pelo celularO motor atuador e a peça de revestimento. (Fonte da imagem: Divulgação/MEMS Cam)

Enquanto o atuador VCM é formado por uma série de partes, algumas mecânicas e outras elétricas, todas separadas umas das outras, o componente de autofoco em MEMS une apenas dois componentes: um motor atuador de silício com tudo integrado e o revestimento da peça.

Esse motor atuador MEMS é formado por três peças. Uma plataforma de silício; condutores em forma de pente que ficam entrelaçados, mas sem tocarem um no outro; e molas para compensar a força. A lente fica no centro da primeira peça e move-se pelo eixo óptico quando cargas eletroestáticas produzem movimentos verticais nos “pentes”.

MEMS Cam: a tecnologia de câmera que pode revolucionar fotos pelo celularA plataforma de silício, a mola e os motores em forma de pente, respectivamente. (Fonte da imagem: )

Por ser tão compacto e preciso, o MEMS move apenas uma das lentes da câmera no processo de autofoco, enquanto as demais permanecem em uma posição otimizada. Desse modo, a qualidade do retrato não se perde, e o resultado final é tão bom quanto uma imagem tirada com o foco manual.

MEMS Cam: a tecnologia de câmera que pode revolucionar fotos pelo celularO motor do MEMS Cam montado: a lente vai no centro. (Fonte da imagem: Divulgação/MEMS Cam)

Além disso, os movimentos mecânicos são definidos por litografia, usando modernas técnicas de gravação em wafer, assim como em semicondutores. Ao todo, a peça tem medidas de 7 x 7 x 0,15 milímetros, e faz com que a câmera inteira seja a menor possível (8,5 x 8,5 x 6 mm para um sensor de 5 MP).

Por que mudar?

MEMS Cam: a tecnologia de câmera que pode revolucionar fotos pelo celularUm teste de desempenho entre câmeras com MEMS e VCM: o tempo do autofoco é muito menos.
(Fonte da imagem: Divulgação/MEMS Cam)

Smartphones mais modernos possuem profundidade de campo rasa e distância hiperfocal mais longa, exigindo um autofoco mais preciso e cada vez mais necessário. Levando isso em conta, a Digital Optics aponta uma série de vantagens ao substituir um módulo VCM por uma câmera com autofoco por MEMS. Confira um resumo:

  • O algoritmo é mais complexo e usa a detecção de rosto para imediatamente calcular a distância necessária para o autofoco;
  • O autofoco ocorre duas vezes mais rápido e com um taxa menor de erro;
  • Uma máquina com MEMS Cam permite a captura rápida de retratos em sequência com diferentes focalizações;
  • As câmeras de tecnologia MEMS são muito menores e ocupam pouco espaço interno possível dentro do aparelho;
  • O uso do silício faz com que o equipamento suporte até 10 milhões de ciclos, quase quatro vezes mais que a durabilidade do metal que compõe o VCM;
  • A temperatura do smartphone sobe muito menos do que durante o uso de uma câmera com VCM. A economia de bateria é maior.

Com a popularização da MEMS Cam em smartphones, assim como melhores sensores, lentes e aplicativos, cada vez mais os celulares e tablets ganham espaço na fotografia, que hoje não é só composta de máquinas profissionais imensas e digitais compactas.

16/10/2013 Posted by | Espaço | Deixe um comentário

O que é Web Semântica?

Conheça já a revolução tecnológica que a internet está sofrendo.

Pode guardar a gramática, pois o assunto não tem nada em comum com língua portuguesa. Web Semântica é um novo conceito de internet que surge para mudar tudo o que conhecemos através da rede e a nossa interatividade com ela dentro dos próximos anos. Mas você saberia dizer exatamente do que se trata?

O problema

O crescimento da internet foi muito grande e em menos de duas décadas e o que era um projeto para compartilhar informações do mundo todo acabou criando proporções inimagináveis. Isto certamente é muito bom por conta da abrangência e da quantidade de fontes com conteúdos diversos, mas acabou ocasionando um verdadeiro caos de informações. Como qualquer um publica suas próprias informações, o volume é tão absurdo que acaba poluindo os resultados e tornando a navegação cada vez mais confusa e dispersa.

A solução

Web Semântica não se trata de uma nova rede de informações, mas sim de um projeto para aplicar conceitos inteligentes na internet atual. Nela cada informação vem com um significado bem definido e não se encontra mais solta no mar de conteúdo, permitindo uma melhor interação com o usuário. Novos motores de busca, interfaces inovadoras, criação de dicionários de sinônimos e a organização inteligente de conteúdos são alguns exemplos de aprimoramento. Desta forma você não vai mais precisar minerar a internet em busca daquilo que você procura, ela vai passar a se comportar como um todo, e não mais como um monte de informação empilhada.

O implemento desta nova tecnologia começou recentemente e ainda vai levar mais alguns anos até que entre completamente em vigor e dê um jeito em toda a enorme bagunça que a internet se tornou. Mesmo assim você já pode conferir os primeiros resultados deste novo conceito em ação, por exemplo: no site do Google, digite a palavra “define:” seguida de qualquer outra palavra. Ao invés de receber uma séria de páginas com resultados genéricos, o site exibe para você apenas páginas que definem a palavra que você escolheu, é a internet ganhando inteligência artificial para filtrar o que você procura. Em resumo, Web Semântica é um novo passo no desenvolvimento da internet marcado principalmente pela organização do conteúdo e pela interação inteligente do usuário com o material disponibilizado na rede. É a tecnologia de um novo passo na internet transformando a rede virtual de informações em um ambiente cada vez mais humano.

13/09/2013 Posted by | Espaço | Deixe um comentário

Você sabia que hoje é o Dia do Programador?

Em 2013 a data está sendo comemorada no dia 13 de setembro, mas há alterações em anos bissextos

Imagem

Por trás de todo site ou software belíssimo, existe um programador que perdeu noites de sono para conseguir fazer com que aquele sistema estivesse sendo executado perfeitamente. E por causa dessas noites mal dormidas e dos grandes feitos realizados, não seria justo que os desenvolvedores tivessem uma data especial só para eles? Pois essa data existe e é reconhecida internacionalmente.

Isso mesmo, a data é oficial em diversos países do mundo — na Rússia, por exemplo, trata-se de um feriado profissional decretado pelo presidente Dmitry Medvedev em 2009. E ele vem sendo lembrado em todo o mundo desde então, sendo que em 2013 ele é comemorado hoje, no dia 13 de setembro.

O mesmo vai acontecer nos próximos dois anos, mas em 2016 a história será diferente, pois em anos bissextos o Dia do Programador é comemorado em 12 de setembro. Quer saber por quê? O Dia do Programador será sempre no 256º dia do ano, pois “256” é o número de valores que podem ser representados em um byte de 8 bits.

13/09/2013 Posted by | Espaço | Deixe um comentário

Lei de Moore: estamos presenciando uma lentidão na evolução das CPUs?

image

(Fonte da imagem: Reprodução/MemeBurn)

Um dos motivos pelos quais o mercado de computadores se mostra intimidante para muitas pessoas é a rápida evolução pela qual ele passa de tempos em tempos. Não é incomum ouvir quem fale que não vale a pena investir na compra de uma máquina top de linha, já que em questão de um mês vai estar disponível no mercado um produto com o dobro da capacidade e o mesmo preço.

Embora em certo momento essa frase até fizesse sentido, não é possível dizer que ela se aplique ao mercado atual. Apesar de fabricantes continuarem investindo no desenvolvimento de novas tecnologias, o ritmo na evolução de CPUs tem sido de somente 10% ao ano — nada comparado aos ganhos anuais de 60% registrados em certo momento da indústria.

O principal responsável por isso é a estagnação da conhecida “Lei de Moore”, que durante muito tempo ditou os avanços do mundo da tecnologia. Após décadas de validade, essa regra finalmente parece ter chegado a seu limite, o que deve obrigar companhias a investir em novos meios de continuar competitivas e de convencer o consumidor a investir em produtos novos.

O que é a Lei de Moore?

Cunhada em 1965 por Gordon Moore, cofundador da Intel, a Lei de Moore dita que o número de transistores em um chip tende a dobrar a cada ano — período que foi corrigido para dois anos em 1975. Porém, a forma mais conhecida dessa regra é responsabilidade de David House, um executivo da empresa que afirmou que o tempo de transição correto é de 18 meses.

image

(Fonte da imagem: Reprodução/MemeBurn)

Na prática, o mercado tem mostrado que produtos com o dobro da capacidade de seus antecessores estão disponíveis aos consumidores a cada 20 meses. Apesar de esse ciclo ter se provado verdadeiro durante vários anos, tudo indica que ele está próximo de terminar, já que estamos cada vez mais perto de alcançar o número-limite de elétrons que podem ser colocados em uma área determinada.

Uma lei em crise

“Quando começamos, tínhamos cerca de 1 milhão de elétrons por células… Agora temos somente algumas poucas centenas”, afirma Eli Harari, CEO da Sandisk. Ele admite que esse ciclo não pode continuar para sempre e que não deve demorar muito para que ele seja esgotado. “Não podemos ter menos de um (elétron)”.

Bernie Meyerson, da IBM, concorda com essa afirmação e explica de forma sucinta as regras com as quais a indústria tem que lidar: “1) átomos não são escalonáveis; 2) dispositivos de silício entram no campo da ‘mecânica quântica’ em dimensões de cerca de 7 nanômetros e 3) a luz está se mostrando muito lenta, enquanto os sinais elétricos estão ainda mais lentos”.
image

(Fonte da imagem: Divulgação/Intel)

O conhecimento de que a Lei de Moore eventualmente será esgotada já faz parte da indústria há mais de uma década. Prova disso é a transição que companhias como a AMD e a Intel fizeram para as arquiteturas baseadas em múltiplos núcleos de processamento a partir do início dos anos 2000, já que investir em CPUs individuais com clocks cada vez maiores estava se mostrando um processo pouco eficiente e bastante propenso ao superaquecimento.

Para tornar mais complicado o trabalho dessas fabricantes, desenvolvedores de software se mostraram capazes de encontrar meios de usar rapidamente toda a potência que era oferecida pelos novos chips. Segundo a Lei de May, a eficiência dos aplicativos diminui pela metade a cada 18 meses — ou seja, toda vez que o poder de processamento era aumentado em 10 vezes, softwares passavam a exigir 10 vezes mais trabalho para funcionar corretamente.

Uma questão física

Um dos principais motivos pelos quais a Lei de Moore deve se esgotar em breve está relacionado às propriedades físicas do silício, material utilizado em uma imensa variedade de componentes eletrônicos (daí o termo Vale do Silício). Segundo o físico teórico Michio Kaku, em cerca de 10 anos o poder desse elemento vai ser esgotado completamente.

Segundo Kaku, o problema ocorre em dois campos: calor e vazamento. Ele afirma que, embora atualmente os processadores da Intel possuam uma camada externa de 20 átomos, esse valor não pode ser menor do que 5 átomos, ponto a partir do qual “está tudo terminado”.

O físico afirma que, a partir desse estágio, o calor gerado pelo processador será tão intenso que ele vai simplesmente derreter. A outra preocupação do profissional está relacionada ao vazamento de dados, já que, ao lidar com dispositivos com escala tão pequena, seria impossível determinar o posicionamento correto de cada elétron.

Kaku prevê que, embora cientistas provavelmente vão encontrar meios de estender a validade da Lei de Moore, o limite possível já está próximo. Segundo ele, isso vai resultar no investimento em computadores moleculares, que devem ser substituídos no final do século 21 por máquinas quânticas.

Broadwell: novo foco para a Intel

A maior prova de que a Lei de Moore não está mais dando os resultados esperados é a própria Intel, empresa cofundada pelo responsável por essa regra. Nos últimos anos, a companhia tem se focado cada vez mais em aprimorar a relação performance por watt de seus produtos, deixando de lado o investimento em poder bruto.

Embora isso possa ser atribuído em partes à ascensão dos mercados de dispositivos portáteis, que exigem pouca quantidade de energia para funcionar, o grande motivador por trás dessa decisão são as limitações físicas que os cientistas da empresa enfrentam.
image

(Fonte da imagem: Reprodução/Hot Hardware)

A próxima geração de chips produzidos pela companhia, conhecidos pelo codinome Broadwell, são um belo exemplo disso. Tudo indica que os novos processadores não devem apostar em um novo chipset, reaproveitando aquele que já é utilizado pela família de produtos Haswell.

Na prática, as CPUs pertencentes à nova linha devem empregar uma frequência de operação maior e passar a usar formas de 14 nanômetros em sua fabricação. O principal aumento de desempenho deve ser visto na GPU integrada ao novo chip, que deve ganhar ainda mais importância devido ao foco cada vez maior que a empresa está dando ao mercado de dispositivos móveis.

Documentos indicam que o processamento gráfico dos novos componentes deve ser 40% melhor do que aquele apresentado pela linha Haswell. Infelizmente, não há indícios de que a Intel vá começar a dar prioridade ao desenvolvimento de drivers mais eficientes, área na qual a companhia continua a pecar.

Mudança de rumo

Prova de que a Intel está planejando uma mudança de rumo são os indícios de que os produtos da linha Broadwell não devem acompanhar o soquete característico dos dispositivos fabricados pela empresa. Ao que tudo indica, as novas CPUs devem vir soldadas diretamente a placas-mães, o que acaba de vez com a possibilidade de realizar upgrades desse componente.

Embora a decisão deva assustar adeptos dos desktops tradicionais, ela faz bastante sentido para a companhia do ponto de vista comercial. Atualmente, é difícil convencer a maioria dos usuários de computadores tradicionais a investir em um novo processador usando seu poder de fogo como única justificativa — afinal, esse público não costuma fazer atividades que vão além de navegar na internet, assistir a vídeos em baixa definição e usar editores de texto.

(Fonte da imagem: Reprodução/PC World)

Assim, trocar a versatilidade das peças tradicionais por uma arquitetura mais fechada que prioriza a eficiência energética faz bastante sentido. Como no mercado de dispositivos portáteis (que ainda está em expansão) não existe a cultura do “upgrade” de componentes individuais, não faz sentido apostar em tecnologias antiquadas que estão se mostrando pouco atrativas do ponto de vista comercial.

Isso não significa que a companhia deve abandonar o mercado de desktops, que, embora estagnado, continua sendo muito importante para ela. Ao que tudo indica, o que devemos ver é uma evolução mais lenta desse segmento, que passaria a testemunhar o lançamento de novos processadores com soquetes tradicionais em um ritmo mais lento do que o atual.

Para onde vamos agora?

O fim iminente do funcionamento da Lei de Moore, mais do que provocar a estagnação da indústria, pode significar uma mudança de rumo muito bem-vinda. Quando se leva em consideração que todo o mundo da tecnologia depende do mesmo elemento (o silício) há mais de 50 anos, é surpreendente termos conseguido avançar tanto.

Entre as soluções que estão sendo desenvolvidas para aumentar o poder bruto de processamento a nosso dispor, está a criação das chamadas “CPUs tridimensionais”. Assim como os seres humanos começaram a “empilhar” casas para economizar espaço (resultando na criação de prédios), empresas apostam no agrupamento de diversos chips como forma de encurtar a distância que uma informação precisa navegar para chegar a seu destino.

Já o MIT aposta na substituição de fios tradicionais por um sistema de lasers baseados no elemento germânio (Ge), que usam luzes infravermelhas para transmitir informações. “Conforme processadores ganham mais núcleos e componentes, os fios que os interconectam ficam congestionados e viram a parte fraca do sistema. Estamos usando fótons, em vez de elétrons, para fazer isso de uma forma melhor”, explica o pesquisador Jurgen Michel.

Ao substituir as ligações tradicionais por pequenos espelhos e túneis pelos quais a luz pode ser transmitida, a equipe conseguiu reduzir o consumo elétrico dos processadores e a quantidade de calor gerada por eles. Com o tempo, isso pode resultar na construção de CPUs com frequências surpreendentes que não sofrem com os problemas de superaquecimento vistos em componentes tradicionais.

Grafeno: substituto para o silício?

Outras opções envolvem o uso da tecnologia ReRam (conhecida popularmente como memresistores) e o desenvolvimento de chips programáveis, capazes de realizar operações de forma mais especializada. Porém, a maioria das apostas para o futuro da tecnologia se concentra em um elemento conhecido como grafeno.
image

(Fonte da imagem: Reprodução/SammyHub)

Constituído por átomos de carbono arranjados em padrões hexagonais, o material se mostra um substituto perfeito para o silício. Entre suas vantagens, estão uma condução elétrica mais eficiente, a possibilidade de utilizá-lo em escala ainda menor e o fato de que ele consome uma quantidade ínfima de energia.

Embora seja conhecido desde a década de 70, somente a partir de 2004 é que as pesquisas do elemento realmente começaram a ser feitas de forma intensa. Infelizmente, o estágio atual de desenvolvimento da tecnologia ainda se mostra bastante rudimentar, o que significa que produzir chips com o material ainda se mostra algo muito dispendioso e um pouco difícil de aplicar em escala comercial — situação que lembra bastante o início dos processadores feitos com silício.

Evolução que deve continuar

Mesmo que o potencial da Lei de Moore esteja chegando a seu final, isso não significa que o mundo da tecnologia deva parar de evoluir. Tal como nós rimos de nossos pais e avós que ficavam abismados com o poder dos primeiros computadores e dependiam de disquetes para armazenar dados, nossos filhos e netos provavelmente vão achar estranho o fato de nos surpreendermos com smartphones e ainda dependermos tanto de discos rígidos para armazenar dados.

09/07/2013 Posted by | Espaço | Deixe um comentário

Aprenda a programar em apenas um ano com a Codecademy

Leia entrevista com fundador do site que promete democratizar o ensino de programação

Imagem

Em qualquer lista de profissões do futuro, lá estão os cargos destinados às pessoas com conhecimento de programação de sites, softwares e aplicativos móveis. A demanda cresce cada vez mais, mas ganhar proficiência nesse tipo de linguagem exigia até hoje uma imersão grande em livros e sites pouco didáticos e difíceis para quem não tem pelo menos algumas noções básicas da arquitetura da internet e da tecnologia no geral.

É justamente isso que espera mudar a Codecademy, uma startup fundada em Nova York e que quer democratizar programação. Fundada por dois ex-colegas da universidade de Columbia, Zach Sims e Ryan Bubinski,  a empresa já angariou US$ 12,5 milhões em fundos de capital para expandir seu curso gratuito de ensino de código e traduzi-lo para outras línguas além do inglês.

Reprodução

A companhia promete ensinar os padrões básicos das principais linguagens – HTML, CSS e JavaScript – em um plano de um ano, o chamado Code Year. Trata-se de um método inovador, que usa conceitos extraídos dos games para manter a atenção dos alunos e que pode finalmente tirar esses conhecimentos do gueto técnico.

O método da Codecademy é mais interativo e divertido do que as opções que já existiam no mercado, adotando conceitos da chamada ‘gamificação’ como a distribuição de badges ao final de cada lição e outras estratégias de engajamento. Até o prefeito de Nova York, Michael Bloomberg, anunciou que se tornaria aluno.

O software desenvolvido introduz o mundo da tecnologia da informação na prática, pedindo ao aluno que realize pequenas tarefas para se familiarizar com a escrita de código e que o faça no seu próprio ritmo. 

ReproduçãoEscritório da Codecademy em Nova York (Foto: Divulgação)

Os dois fundadores da empresa acreditam que todos, mesmo aqueles que não esperam trabalhar com internet, deveriam saber ao menos os conceitos principais da construção da web. Como a internet não parece que abrirá espaço para outra rede de comunicação tão cedo, resta-nos programá-la ou sermos programados. 

“Escrever código é uma alfabetização para o século 21”, afirma Zach Zims, co-criador do projeto: 

Quando e por que vocês decidiram abrir a Codecademy? Qual a situação atual da companhia?

A companhia foi fundada em agosto de 2011. Desde então, conseguimos levantar US$ 12,5 milhões de financiadoras como Union Square, Kleiner Perkins, Index Ventures e outras, e hoje empregamos dez pessoas full time. Milhões de pessoas já se cadastraram para participar dos nossos cursos.

Como se deu a criação do software de ensino?

Nós mesmos desenvolvemos o método. Queríamos criar uma experiência mais interessante e que prendesse mais as pessoas.

Começamos a empresa para resolver os nossos próprios problemas. Eu estava aprendendo a programar e quando comecei a trabalhar em alguns projetos com o Ryan, que já havia ensinado código na época que ambos éramos estudantes de Columbia.

Criamos a Codecademy porque eu queria construir uma melhor experiência de aprendizado para mim mesmo e uma melhor experiência de ensino para o Ryan.

Por que vocês consideram necessário que qualquer pessoa, mesmo aquela que não é particularmente interessada em internet, deva aprender código?

A programação faz as pessoas descobrirem o pensamento o algorítmico – e isso é bem maior do que só aprender código. Isso significa pensar na vida como um programa e nos meios de hackeá-la, torná-la mais simples e usar o raciocínio crítico.

Além disso, saber programação permite que a pessoa se torne uma empreendedora e também a encontrar mais oportunidades de trabalho.

O site continuará gratuito ou vocês têm planos de criar especializações pagas?

No momento, não pensamos nisso, queremos manter o site gratuito. Estamos focados em criar um melhor processo de aprendizado para os nossos usuários e expandir nossas atividades.

Vocês planejam traduzir mais cursos para o português?

Temos muitos usuários brasileiros e já contamos com alguns cursos traduzidos para o português, está nos nossos planos ampliar isso. Todas as nossas traduções são feitas pelos próprios usuários, então, se você que está lendo essa entrevista quiser nos ajudar, mande-nos um e-mail ou fale conosco através do site. 

27/06/2013 Posted by | Espaço | Deixe um comentário

A evolução dos computadores

Você sabia que computadores já chegaram a pesar 30 toneladas e custar 2 milhões de dólares? Conheça mais sobre a história da informática.

Das toneladas aos microchips

Não é segredo que o seu computador atual é fruto de uma evolução que levou décadas para chegar aonde está – e ainda está muito longe de chegar ao seu final. Se pensarmos que cerca de dez anos atrás os processadores ainda nem conheciam os núcleos múltiplos, imaginar as máquinas que inauguraram a informática é uma tarefa ainda mais complicada.

Você sabia que no início da década de 1950 já existiam computadores? Logicamente eles não se apareciam nem um pouco com o que temos hoje, mas já realizavam alguns cálculos complexos em pouquíssimo tempo. Nesses 60 anos, elementos desapareceram, componentes foram criados e parece até que estamos falando de assuntos totalmente desconexos.

Então prepare-se para conhecer um pouco mais sobre essa magnífica história. Para facilitar a leitura, atendemos às divisões de alguns autores especializados no assunto e separamos a história da informática em gerações. Agora aproveite para aprender mais ou para conhecer a importante evolução dos computadores.

As gigantes válvulas da primeira geração

Imagine como seria sua vida se você precisasse de uma enorme sala para conseguir armazenar um computador. Logicamente isso seria impossível, pois os primeiros computadores, como o ENIAC e o UNIVAC eram destinados apenas a funções de cálculos, sendo utilizados para resolução de problemas específicos.

Por que problemas específicos? Os computadores da primeira geração não contavam com uma linguagem padronizada de programação. Ou seja, cada máquina possuía seu próprio código e, para novas funções, era necessário reprogramar completamente o computador. Quer mudar o problema calculado? Reprograme o ENIAC.

ENIAC e suas 18 mil válvulas

Fonte da imagem: Wikimedia Commons/Domínio Público

Esses computadores gigantescos ainda sofriam com o superaquecimento constante. Isso porque em vez de microprocessadores, eles utilizavam grandes válvulas elétricas, que permitiam amplificação e troca de sinais, por meio de pulsos. Elas funcionavam de maneira correlata a uma placa de circuitos, sendo que cada válvula acesa ou apagada representava uma instrução à máquina.

Com poucas horas de utilização, essas válvulas eram queimadas e demandavam substituição. Por isso, a cada ano eram trocadas cerca de 19 mil delas em cada máquina. Sim, 19 mil válvulas representavam mais do que o total de componentes utilizados por um computador ENIAC. Como você pode perceber, esses computadores não saíam baratos para os proprietários.

Transistores e a redução dos computadores

As gigantes máquinas não estavam sendo rentáveis, pelos constantes gastos com manutenção. A principal necessidade era substituir as válvulas elétricas por uma nova tecnologia que permitisse um armazenamento mais discreto e não fosse tão responsável pela geração de calor excessivo, evitando superaquecimentos.

Foi então que os transistores (criados em 1947 pela empresa Bell Laboratories) passaram a integrar os painéis das máquinas de computar. Os componentes eram criados a partir de materiais sólidos conhecidos como “Silício”. Exatamente, os materiais utilizados até hoje em placas e outros componentes, extraídos da areia abundante.

Transistores em 1965

Fonte da imagem: Wikimedia Commons/Hohum

Existia uma série de vantagens dos transistores em relação às válvulas. Para começar: as dimensões desses componentes eram bastante reduzidas, tornando os computadores da segunda geração cem vezes menores do que os da primeira. Além disso, os novos computadores também surgiram mais econômicos, tanto em questões de consumo energético, quanto em preços de peças.

Para os comandos desses computadores, as linguagens de máquina foram substituídas por linguagem Assembly. Esse tipo de programação é utilizado até hoje, mas em vez de ser utilizado para softwares ou sistemas operacionais, é mais frequente nas fábricas de componentes de hardware, por trabalhar com instruções mais diretas.

Em vez das 30 toneladas do ENIAC, o IBM 7094 (versão de maior sucesso dessa segunda geração de computadores) pesava apenas 890 Kg. E por mais que pareça pouco, essa mesma máquina ultrapassou a marca de 10 mil unidades vendidas.

Imagem atual de um IBM 7090

Fonte da imagem: Wikimedia Commons/David Monniaux

Curiosidade: os computadores dessa segunda geração foram inicialmente desenvolvidos para serem utilizados como mecanismos de controle em usinas nucleares. Um modelo similar pode ser visto no desenho “Os Simpsons”, mais especificamente no posto de trabalho de Homer, técnico de segurança na Usina Nuclear.

Miniaturização e circuitos integrados

O emprego de materiais de silício, com condutividade elétrica maior que a de um isolante, mas menor que a de um condutor, foi chamado de semicondutor. Esse novo componente garantiu aumentos significativos na velocidade e eficiência dos computadores, permitindo que mais tarefas fossem desempenhadas em períodos de tempo mais curtos.

Com a terceira geração dos computadores, surgiram também os teclados para digitação de comandos. Monitores também permitiam a visualização de sistemas operacionais muito primitivos, ainda completamente distantes dos sistemas gráficos que conhecemos e utilizamos atualmente.

IBM da terceira geração

Fonte da imagem: Wikimedia Commons/Domínio Público

Apesar das facilidades trazidas pelos semicondutores, os computadores dessa geração não foram reduzidos, sendo que um dos modelos de mais sucesso (o IBM 360, que vendeu mais de 30 mil unidades) chegava a pesar mais do que os antecessores. Nessa época (final da década de 1970 e início da década de 1980) os computadores passaram a ser mais acessíveis.

Outro grande avanço da terceira geração foi a adição da capacidade de upgrade nas máquinas. As empresas poderiam comprar computadores com determinadas configurações e aumentar as suas capacidades de acordo com a necessidade, pagando relativamente pouco por essas facilidades.

Microprocessadores: o início dos computadores pessoais

Enfim chegamos aos computadores que grande parte dos usuários utiliza até hoje. Os computadores da quarta geração foram os primeiros a serem chamados de “microcomputadores” ou “micros”. Esse nome se deve ao fato de eles pesarem menos de 20 kg, o que torna o armazenamento deles muito facilitado.

Você consegue imaginar qual o componente que tornou possível essa redução das máquinas? Acertou quem disse que foram os microprocessadores. O surgimento dos pequenos chips de controle e processamento tornou a informática muito mais acessível, além de oferecer uma enorme gama de novas possibilidades para os usuários.

Em 1971, já eram criados processadores com esse novo formato, mas apenas na metade da década começaram a surgir comercialmente os primeiros computadores pessoais. Os Altair 880 podiam ser comprados como um kit de montar, vendidos por revistas especializadas nos Estados Unidos. Foi com base nessa máquina que Bill Gates e Paul Allen criaram o “Basic” e inauguraram a dinastia Microsoft.

A importância da Apple

Na mesma época, os dois Steves da Apple (Jobs e Wozniac) criaram a empresa da Maçã para se dedicarem a projetos de computação pessoal facilitados para usuários leigos. Assim surgiu o Apple I, projeto que foi primeiramente apresentado para a HP. Ele foi sucedido pelo Apple II, após uma injeção de 250 mil dólares pela Intel.

Apple II, sucesso absoluto

Fonte da imagem: Musée Bolo

Essa segunda versão dos computadores possuía uma versão modificada do sistema BASIC, criada também pela Microsoft. O grande avanço apresentado pelo sistema era a utilização de interface gráfica para alguns softwares. Também era possível utilizar processadores de texto, planilhas eletrônicas e bancos de dados.

Essa mesma Apple foi responsável pela inauguração dos mouses na computação pessoal, juntamente com os sistemas operacionais gráficos, como o Macintosh. Pouco depois a Microsoft lançou a primeira versão do Windows, bastante parecida com o sistema da rival.

E os ciclos tornam-se clocks

Até a terceira geração dos computadores, o tempo de resposta das máquinas era medido em ciclos. Ou seja, media-se um número de ações em curtos períodos de tempo para que fosse possível saber qual fração de segundo era utilizada para elas. Com os microprocessadores, já não era viável medir as capacidades dessa forma.

Por isso surgiram as medidas por clocks. Esta definição calcula o número de ciclos de processamento que podem ser realizados em apenas um segundo. Por exemplo: 1 MHz significa que em apenas um segundo é possível que o chip realize 1 milhão de ciclos.

Grande parte dos computadores pessoais lançados nessa época eram alimentados por processadores da empresa Intel. A mesma Intel que hoje possui alguns dos chips mais potentes, como o Intel Core i7 (sobre o qual falaremos mais, em breve). Como você pode saber, estas máquinas são muito leves e puderam ser levadas a um novo patamar.

Notebooks: a quarta geração portátil

Considerando o progresso da informática como sendo inversamente proporcional ao tamanho ocupado pelos componentes, não seria estranho que logo os computadores transformassem-se em peças portáteis. Os notebooks surgiram como objetos de luxo (assim como foram os computadores até pouco mais de dez anos), sendo caros e de pouca abrangência comercial.

Notebooks cada vez mais poderosos

Fonte da imagem:divulgação/Asus

Além dos notebooks, temos também os netbooks disponíveis no mercado. Estes funcionam de maneira similar aos outros, mas geralmente possuem dimensões e configurações menos atraentes. Ganham pontos pela extrema portabilidade e duração das baterias utilizadas, sendo certamente um degrau a mais na evolução dos computadores.

Hoje, o preço para se poder levar os documentos, arquivos e programas para todos os lugares não é muito superior ao cobrado por desktops. Mesmo assim, o mercado ainda está longe de atingir o seu ápice. Quem sabe qual será o próximo passo da indústria?

Múltiplos núcleos: a quinta geração?

Ainda estamos em transição de uma fase em que os processadores tentavam alcançar clocks cada vez mais altos para uma fase em que o que importa mesmo é como podem ser melhor aproveitados esses clocks. Deixou de ser necessário atingir velocidades de processamento superiores aos 2 GHz, mas passou a ser obrigatório que cada chip possua mais de um núcleo com essas frequências.

Chegaram ao mercado os processadores que simulavam a existência de dois núcleos de processamento, depois os que realmente apresentavam dois deles. Hoje, há processadores que apresentam quatro núcleos, e outros, utilizados por servidores, que já oferecem oito. Com tanta potência executando tarefas simultâneas, surgiu uma nova necessidade.

Processamento verde

Sabe-se que, quanto mais tarefas sendo executadas por um computador, mais energia elétrica seja consumida. Para combater essa máxima, as empresas fabricantes de chips passaram a pesquisar formas de reduzir o consumo, sem diminuir as capacidades de seus componentes. Foi então que nasceu o conceito de “Processamento Verde”.

Por exemplo: os processadores Intel Core Sandy Bridge são fabricados com a microarquitetura reduzida, fazendo com que os clocks sejam mais curtos e menos energia elétrica seja gasta. Ao mesmo tempo, esses processos são mais eficazes. Logo, a realização de tarefas com esse tipo de componente é boa para o usuário e também para o meio ambiente.

Sandy Bridge, da Intel

Fonte da imagem: divulgação/Intel

Outro elemento envolvido nessas conceituações é o processo de montagem. As fabricantes buscam, incessantemente, formas de reduzir o impacto ambiental de suas indústrias. Os notebooks, por exemplo, estão sendo criados com telas de LED, muito menos nocivos à natureza do que LCDs comuns.

…..

Não sabemos ainda quando surgirá a sexta geração de computadores. Há quem considere a inteligência artificial como sendo essa nova geração, mas também há quem diga que robôs não fazem parte dessa denominação. Porém, o que importa realmente é perceber, que ao longo do tempo, o homem vem trabalhando para melhorar cada vez mais suas máquinas.

Quem imaginava, 60 anos atrás, que um dia seria possível carregar um computador na mochila? E quem, hoje, imaginaria que 60 anos atrás seria necessário um trem para carregar um deles? Hoje, por exemplo, já existem computadores de bolso, como alguns smartphones que são mais poderosos que netbooks.

E para você, qual será o próximo passo nessa evolução das máquinas? Aproveite os comentários para dizer o que você pensa sobre essas melhorias proporcionadas ao longo de décadas.

15/06/2013 Posted by | Espaço | Deixe um comentário

Cientistas que mudaram o mundo: Alan Turing

As maiores criações do pai da computação.

Cientistas que mudaram o mundo: Alan Turing

(Fonte da imagem: Vida Universitária)

Alan Turing foi um incrível matemático, lógico e criptoanalista, cujos estudos e projetos se tornaram base para a tecnologia atual. É neste momento que muitos podem estar pensando: “Mas afinal de contas, o que esse cientista inventou de tão importante?”. A resposta deve estar, literalmente, na sua frente: ele é o motivo de você estar usando um computador neste momento.

Decifrando o Enigma

O primeiro destaque da vida de Turing veio quando ele estava perto dos 30 anos. Trabalhando em conjunto com uma organização inglesa, o matemático foi capaz de criar um sistema para traduzir os textos encriptados pelos alemães chamado “bombe”. Sua máquina era extremamente eficaz contra o equipamento inimigo, que usava uma encriptadora chamada Enigma para fazer com que as mensagens captadas pelos britânicos não fossem compreensíveis.

A bombe captava e identificava quando o sinal estava protegido pelo mesmo padrão da Enigma, para depois usar um padrão de lógica que ignorava informações que se contradiziam e gerar a mensagem verdadeira. Na época, já haviam algumas máquinas que faziam o mesmo, mas nenhuma tão bem quanto esta.

Cientistas que mudaram o mundo: Alan Turing

Versão reconstruída de uma bombe, no Museu de Bletchley Parck (Fonte da imagem: Wikimedia Commons)

O sistema da bombe usava mecanismos eletromecânicos e era extremamente avançado para sua época. Por isso, ele é muitas vezes considerado como o primeiro computador da história.

Turing e sua máquina

Por mais que a criação da bombe seja impressionante, seu título de “pai da computação” só veio com a criação de sua “máquina-automática”, atualmente conhecida por máquina de Turing.

A ideia do equipamento era bastante simples: o aparelho devia ser capaz de manipular símbolos em uma fita de acordo com uma série de regras para guardar informações. O conceito parece familiar? Pois deveria. Afinal, é assim que todos os computadores funcionam.

A lógica por trás da máquina de Turing pode imitar qualquer algoritmo de um PC, se mostrando especialmente útil para que as pessoas possam compreender as limitações da computação.

Cientistas que mudaram o mundo: Alan Turing

(Fonte da imagem: The History of Computer Project)

Todo o conceito da máquina de Turing foi então incorporado ao primeiro computador do matemático, chamado ACE (“Automatic Computing Engine” ou “motor de computação automática”). Infelizmente, o projeto sofreu vários problemas de atraso e custo, sendo construído apenas tempos depois e em uma versão mais simples.

Teste de Turing

Foi nesta época também que Alan Turing criou seu famoso teste, usado até hoje para descobrir o nível de inteligência de um programa de inteligência artificial. Esse teste não foi criado para analisar a capacidade de um computador de pensar por si mesmo, já que as máquinas são completamente incapazes disso, mas sim de identificar o quão bem ele pode imitar o cérebro humano.

Para isso, uma pessoa deve mandar uma série de perguntas para o computador, analisando as respostas dadas por ele. Caso essa pessoa não consiga diferenciar se o que foi dito pelo sistema foi elaborado por outro ser humano ou se veio de uma máquina, a inteligência artificial é definida como “inteligente”.

Atualmente, não é difícil encontrar softwares capazes de serem considerados inteligentes dentro dos moldes do teste – e nem são necessários de sistemas extremamente avançados. Chats virtuais, como o Robô Ed, são um bom exemplo de inteligência artificial capaz de enganar qualquer um.

Encontrando os padrões

Turing sempre foi considerado uma pessoa extremamente excêntrica por sua necessidade de buscar padrões, tanto na matemática quanto na própria natureza. Mas isso acabou se mostrando um fator importante para que ele criasse os computadores, ao mesmo tempo em que trouxe frutos interessantes para o ramo da biologia.

Depois de muito observar, Alan Turing escreveu, em seus últimos dias de vida, um artigo sobre a Morfogênese, uma área da biologia matemática que estuda o padrão como os seres vivos se desenvolvem. Usando por base cálculos como os números de Fibonacci e outras equações complexas, ele conseguia, por exemplo, prever qual seria o número de listras em um tigre ou a quantidade de pintas em uma onça.

Seu artigo nunca foi terminado, devido à sua morte. Mas o que já estava feito veio a ser comprovado décadas depois, com os estudos sobre o DNA. Por esse motivo, seus trabalhos são considerados um marco para a área.

…..

Alan Turing foi um dos homens de maior importância não só para seu tempo, como para a atualidade. Com estudos que não só foram base para a existência da inteligência artificial, mas de quase todos os aparelhos eletrônicos já feitos, e inventos que permitiram que a vida de incontáveis pessoas fossem salvas durante a Segunda Guerra, ele definitivamente merece seu título de “pai do computador”.

 

15/06/2013 Posted by | Espaço | 1 Comentário

Colossus: herói de guerra e um dos primeiros computadores do mundo

Projeto britânico ultrassecreto decodificava mensagens nazistas e era totalmente programável
.

(Fonte da imagem: Reprodução/Colossus Computer)

Em artigos sobre a história dos eletrônicos em geral, a máquina norte-americana gigante conhecida como Electronic Numerical Integrator And Computer (ENIAC) é normalmente creditada como o “pai dos computadores”, pois pertence a uma geração pioneira desses dispositivos. Tal fato até pode ser considerado verdadeiro – mas é ainda mais justo dizer que ele tem a guarda compartilhada com um aparelho chamado Colossus.

A máquina ocupa uma sala inteira, é formada por várias peças aposentadas há décadas e nem contava com recursos como tela ou memória. Mas ele surgiu anos antes do ENIAC, em janeiro de 1944, e tinha uma função ainda mais nobre do que fazer cálculos: decodificar mensagens trocadas entre soldados nazistas, permitindo que os Aliados antecipassem e neutralizassem os movimentos inimigos.

Ainda não está convencido da importância desse dinossauro dos eletrônicos? Abaixo, você conhece um pouco mais sobre o Colossus, o primeiro computador eletrônico e digital do mundo totalmente programável.

Uma aula de História

Calma, não pare o artigo depois do título acima – a trama envolve muita espionagem e tensão. Para compreender a necessidade de criar uma máquina como o Colossus, é preciso primeiro entender o contexto histórico da época. Ou seja, temos que voltar para 1939, início da Segunda Guerra Mundial.

Fora o sistema de ataque Blitzkrieg e as pistolas Luger, o exército alemão nazista contava com outra arma temida: a máquina Lorenz, um codificador de mensagens que permitia a criação de recados criptografados que eram transmitidos via rádio em códigos diferentes dos tradicionais Morse. Isso ocorria entre um posto militar até um acampamento avançado, por exemplo, ou até entre Hitler e seus generais de maior confiança.

As rodas de codificação da temida Lorenz. (Fonte da imagem: Reprodução/Colossus Computer)

Por conta dessa técnica, que será explicada mais para frente, as mensagens enviadas pela Lorenz demoravam cerca de seis semanas para serem decodificadas pela aliança entre Inglaterra, Estados Unidos e Rússia – um esforço inútil, pois as tropas inimigas já estariam em outro lugar e com outros planos depois de tanto tempo.

Era preciso inventar um aparelho ainda mais moderno, potente e inteligente que o alemão. Nascia aí um dos centros de inteligência mais importantes da Segunda Guerra Mundial – e, dentro dele, o Colossus.

As mentes brilhantes de Bletchley Park

Assim como os Superamigos têm a Sala de Justiça e James Bond abriga-se na sede da MI6, a Inglaterra da vida real possuía um local secreto que reunia alguns de seus melhores homens – que, neste caso, pesquisavam novos recursos para a computação, que ainda dava os primeiros passos.
Trata-se de Bletchley Park, uma mansão no distrito de Milton Keynes, 80 quilômetros ao noroeste de Londres. Lá, funcionava a Government Code and Cypher School (GC&CS), uma divisão especializada em decodificação.

Quem aprovou a iniciativa foi ninguém menos que o primeiro-ministro Winston Churchill. Ele forneceu recursos econômicos ilimitados para o local, além do recrutamento dos melhores engenheiros de todas as áreas. Um deles é o famoso Alan Turing, que ajudou no processo de criação do Colossus, assim como Tommy Flowers, Bill Tutte e Max Newman. Fora eles, cientistas poloneses que construíram o BOMBE, um decodificador mecânico, forneciam ainda mais projetos e dados para ajudar os ingleses.

A mansão de Bletchley Park. (Fonte da imagem: IEEE Computer Society)

Com um antecessor do Colossus, foi possível confirmar, por exemplo, que as tropas de Hitler realmente acreditavam que o desembarque do Dia D seria em um território diferente da Normandia, o que aumentou a confiança do exército para a operação mais decisiva do conflito.

Após a guerra, o local tornou-se irrelevante e foi desativado, sendo posteriormente transformado em um museu de história da computação. Os funcionários, também dispensados, espalharam-se por universidades de Estados Unidos e Europa, acabando em projetos como o ENIAC e outros pioneiros da área.

Como funcionava a codificação

A máquina Lorenz utilizava uma fita de papel que recebia uma sequência de furos que é a “versão visual” dos códigos. Ela utilizava um sistema duplo de criptografia: primeiro, a mensagem virava uma sequência de caracteres desconhecidos – nada de letras comuns. Em seguida, ela era novamente codificada, embaralhada em uma sequência pseudoaleatória, e só então transmitida via sinais de rádio por um telégrafo.

A tal fita de papel com os “furinhos” indicando caracteres obscuros. (Fonte da imagem: Picotech)

O problema é que o codificador funciona a partir da rotação de 12 rodas mecânicas que geram a aleatoriedade – ou seja, trata-se de um processo com chances limitadas e não tão aleatórias assim.
Notar o padrão da sequência (e, posteriormente, do código) era difícil, porém não impossível. Após descobrir o funcionamento da Lorenz, os cientistas “só” precisaram construir uma máquina que fizesse o processo reverso mais rapidamente que o trabalho manual.

Um verdadeiro colosso

Agora é hora de falar da máquina em si. Basicamente, o Colossus é uma máquina formada por oito grandes “gabinetes” de 2,3 metros de altura, divididas em duas seções de 5,5 metros de comprimento.

O sistema de válvulas de uma réplica do Colossus. (Fonte da imagem: Reprodução/Colossus Computer)

Separadamente, há um leitor com espaço para duas fitas contendo o sinal de rádio impresso em papel. Na primeira delas, está a mensagem a ser “traduzida”. Na segunda, uma repetição da sequência pseudoaleatória de codificação, que é aplicada à mensagem.

Cada vez que ambas as fitas eram totalmente lidas, a segunda era movida levemente, para que os códigos fossem aplicados com pequenas alterações. Cada teste recebia uma “pontuação” – e a rodada de melhor desempenho era aquela verificada pelos engenheiros.

Os gabinetes em visão lateral. (Fonte da imagem: Codes and Ciphers)

Em um dos gabinetes fica o painel de controle, em que o algoritmo contendo a sequência pseudoaleatória é configurado manualmente. O Colossus não possui um programa instalado, portanto era necessário acertar os pinos e alavancas a cada nova operação. A leitura é feita a 48 km/h por sensores fotoelétricos – e o primeiro modelo lia incríveis 5 mil caracteres por segundo.

Por fim, um painel de luzes e uma impressora mostram os resultados obtidos. Lembra-se do tempo de codificação das máquinas anteriores? Em vez de seis semanas, o Colossus reduzia esse trabalho para seis horas.

Algumas das válvulas dessa réplica são as originais, da década de 1940. (Fonte da imagem: IEEE Computer Society)

Ele também não é dotado de memória para armazenar dados. Para eliminar esse obstáculo, 2.400 válvulas eletrônicas com fios quentes no centro funcionam como um contador da pontuação obtida pelo Colossus, avisando o próprio sistema se o algoritmo já foi calculado.

Por conta delas, o Colossus raramente era desligado: a quantidade de calor gerada no momento de ativação da máquina poderia fritar todos os circuitos e estourar as válvulas do aparelho, algo que seria custoso até mesmo para Blechley Park. Por isso, o computador passava meses inteiros ligado – e, quando tinha que ser reiniciado, o processo era feito o mais lentamente possível.

 

….

Ao todo, foram produzidas 10 unidades do Colossus. Todas foram desmontadas total ou parcialmente após o fim da guerra, já que o projeto era ultrassecreto e permaneceu assim por mais três décadas.

A reconstrução para exibição e estudo foi possível apenas 50 anos depois, graças a um projeto que criou réplicas com partes de terminais telefônicos usados. Apesar de não existir mais em sua forma natural, o Colossus com certeza ocupa um lugar especial no hall da fama dos computadores – e dos bravos soldados da Segunda Guerra Mundial.

15/06/2013 Posted by | Espaço | Deixe um comentário

%d blogueiros gostam disto: