Se a nova tecnologia se mostrar factível, vai impedir uma crise que ameaça deter mais de cinco décadas de progresso dos fabricantes de chips, que agora podem produzir rotineiramente circuitos menores do que um comprimento de onda de luz para criar computadores ainda mais poderosos. Acontece que até as ondas de luz têm limites. Numa indústria famosa por invenções radicais e engenhosas, os projetistas têm a urgência premente de achar novas formas para fazer circuitos menores, mais velozes e baratos.
Max Shulaker, estudante de engenhsaria elétrica, confere wafer de silício com circuito de nanotubos de carbono - (Foto: Lianne Milton/The New York Times).
Neste ano, a Intel, maior fabricante mundial de chips, apresentou o
transistor 3D que empurra um pilar fino da superfície do silício, num
esforço para acomodar bilhões de chaves minúsculas num único
microprocessador.
Essa abordagem é controversa; o desafio não é apenas espremer mais
chaves, mas fazê-las ligar e desligar de forma rápida e limpa, e muita
gente do setor acredita haver meios menos drásticos de conseguir isso.
E seja qual for a abordagem que se mostrar mais eficiente, existe um
consenso crescente entre engenheiros e executivos da indústria de que os
dias do silício estão contados. Surge no horizonte um universo de
fabricação ainda menor, os nanoeletrônicos, que será caracterizado pela
capacidade de construir circuitos em escala molecular.
Assim, em universidades e laboratórios empresariais do mundo inteiro, os
pesquisadores estão tentando desenvolver a próxima geração das
tecnologias de produção de chips.
Shulaker é membro do Robust Systems Group em Stanford, liderado por
Subhasish Mitra, ex-engenheiro da Intel. A nova chave que ele e outros
pesquisadores estudantes estão fazendo chama-se transistor de efeito de
campo de nanotubo de carbono, ou CNFET.
Para produzir os protótipos de chave, Shulaker primeiro faz crescer
quimicamente bilhões de nanotubos de carbono --cada um com espessura de
12 átomos-- numa superfície de quartzo. Ele os cobre com uma película
ultrafina de ouro e depois usa um pedaço de fita --como um removedor de
bolinhas de roupa-- para coletá-los manualmente e transferi-los
suavemente a um wafer de silício.
A diferença é que, pela primeira vez, os circuitos não são gravados com
ondas de luz; em vez disso, ao menos em parte, eles se "automontam". Os
fios ultrafinos feitos com nanotubos de carbono são fixados por meio de
um processo químico que é a primeira etapa para produzir um circuito de
computador.
O resultado são nanocircuitos muito menores, que usam muito menos
energia que os circuitos de computador mais avançados de hoje em dia,
feitos com silício.
Com o método de gravação por luz, a menor parte de um semicondutor tem
atualmente 32 nanômetros, e a nanotecnologia é uma abordagem em que
tanto a Intel quanto a IBM depositam altas esperanças quando as peças do
semicondutor tiverem sete nanômetros --o que pode acontecer já em 2017.
"Estamos explorando isso muito a sério", disse Supratik Guha, diretor de
ciência física do laboratório de pesquisa Thomas J. Watson, da IBM.
"Sentimos que, conseguindo colocar nanotubos de carbono a poucos
nanômetros de distância, eles terão um desempenho superior ao silício".
Uma década depois, Gordon Moore, então químico da Fairchild Semiconductor, formalizou a capacidade de uma nova técnica chamada fotolitografia para reduzir componentes, dizendo que ela poderia ser feita a intervalos regulares e prevendo que o método seria exponencial --dobrando o número de transistores que poderiam ser colocados num microchip todo ano.
A Lei de Moore, como veio a ser chamada, só era um pouco otimista: a duplicação se deu a cada 18 meses, mais ou menos, durante quase cinco décadas. Hoje em dia, vários bilhões de transistores podem caber num único chip, e a resultante era dos microeletrônicos transformou o mundo, estendendo-se virtualmente a todo aspecto da existência humana --dos agricultores de subsistência africanos que agora podem receber os preços do mercado por mensagem de texto aos supercomputadores capazes de simular explosões nucleares e prever mudanças climáticas.
Só que, a cada nova geração de tecnologia, os obstáculos se tornaram mais imponentes, e o custo para suplantá-los está subindo, não caindo. Por exemplo, a Taiwan Semiconductor Manufacturing Company, um dos maiores fabricantes de chips do mundo, espera gastar quase US$ 10 bilhões em sua nova fábrica. Além disso, à medida que os circuitos de computador CMOS padrão acolhem mais e mais transistores, eles costumam deixar eletricidade vazar, gerando calor em excesso.
Os sinais de alerta começaram há uma década, quando Patrick P. Gelsinger, então diretor de tecnologia da Intel, avisou que, se a tendência continuasse, os chips com microprocessadores chegariam à temperatura da superfície do Sol em 2011. Para impedir isso, a empresa deu a chamada "guinada rápida para a direita", ganhando velocidade ao acrescentar recursos paralelos em vez de aumentar a velocidade de clock dos chips.
Todavia, mesmo essa abordagem tem limites. Neste ano, pesquisadores da Universidade de Washington e a Microsoft alertaram sobre o que chamaram de "silício negro". Com tantos processadores num único chip, fica impraticável fornecer energia para todos eles ao mesmo tempo. Assim, alguns transistores ficam sem energia --"negros", no jargão do setor.
Os novos limites são particularmente intimidadores para projetistas de supercomputadores, que estão buscando construir um sistema em "escala exa" --mil vezes a velocidade dos computadores mais velozes de hoje em dia-- até 2019. Usando componentes de hoje, isso exigiria de 10 milhões a 100 milhões de processadores --comparados a quase um milhão agora-- e consumiria mais de 1 bilhão de watts.
Nanotubos de carbono criados em uma superfície de quartzo, cobertos com ouro e colocados em um wafer - (Foto: Lianne Milton/The New York Times).
Na conferência anual de supercomputação em Seattle, no mês passado,
Jen-Hsun Huang, executivo-chefe da Nvidia, fabricante de chips de
aceleração gráfica usados em videogames e computadores, alertou para o
fato de que, enquanto o desempenho da supercomputação melhorou 1 milhão
de vezes nas duas últimas décadas, a energia necessária para usar um
computador havia aumentando apenas 40 vezes.
Essa taxa de crescimento havia sido prevista por Robert H. Dennard,
engenheiro elétrico da IBM que inventou o chip de memória de acesso
aleatório dinâmico, ou DRAM. Contudo, diante do problema crescente de
vazamento de eletricidade, o grande benefício, que oferecia um aumento
de desempenho constante de oito vezes por watt, chegou a seu limite.
"O impacto dessa pequena análise é dramático ao longo do tempo", disse
Huang. "É fundamental para nossa indústria --é a nossa gravidade".
A empresa de Huang, que começou no Vale do Silício fazendo placas de
vídeo para videogames 3D e recentemente começou a oferecer um programa
para otimizar processadores em aplicações científicas e de engenharia,
reflete tendências amplas na indústria do computador.
Até a década de 1990, os sistemas de computação de ponta começaram como
aplicações militares e corporativas. Desde então, a tecnologia foi cada
vez mais levada de baixo para cima. A enorme economia de escala
oferecida por produtos eletrônicos de consumo determinou que vários dos
supercomputadores mais velozes fossem agora construídos com componentes
criados para consumidores finais.
Na conferência de supercomputação deste ano, por exemplo, pesquisadores
do Centro de Supercomputação de Barcelona, na Espanha, anunciaram que
estavam planejando um sistema baseado em um novo chip da Nvidia que
combina processadores gráficos com o microprocessador ARM largamente
usado em smartphones.
Todavia, combinar processadores gráficos, microprocessadores e outros
componentes em chips integrados é só um tapa-buraco. Segundo
especialistas, dentro de poucos anos, os transistores CMOS convencionais
não terão mais capacidade de serem reduzidos no ritmo da Lei de Moore.
Aqui em Stanford, Mitra afirma que um sistema baseado em nanotubos de
carbono pode superar em grande medida a atual tecnologia de transistor
3D da Intel. Na verdade, talvez seja possível empilhar várias camadas
dessas chaves de carbono, criando circuitos tridimensionais de verdade.
Só que ele reconhece que a tecnologia do nanotubo de carbono "ainda tem seus problemas".
Outras tecnologias também podem ser concorrentes na loteria dos nanoeletrônicos.
Pesquisadores do HP Labs disseram que estão perto de comercializar uma
nova tecnologia de semicondutor baseada num elemento de circuito chamado
"memristor", que pode substituir transistores, inicialmente num chip de
memória que pode oferecer uma alternativa às memórias flash e DRAM.
Os pesquisadores haviam anunciado no periódico "The Proceedings of the
National Academy of Sciences" que haviam inventado um novo método para
armazenar e recuperar informações de um amplo conjunto tridimensional de
memristores. Potencialmente, o esquema poderia liberar os projetistas
para empilhar milhares de chaves em muitos andares, permitindo uma nova
classe de equipamentos de computação ultradensos mesmo depois que a
redução bidimensional chegar aos limites fundamentais.
Durante uma palestra recente em Stanford, Stan Williams, físico que está
comandando os trabalhos da HP, afirmou que o grupo estava se
concentrando num novo tipo de material semicondutor, o dióxido de
titânio, que poderia rivalizar com o silício.
"Basta dizer que não é um futuro longínquo", disse. "Isso não vai demorar nem dez anos".
Williams afirmou que o memristor poderia ter significativas vantagens de
tamanho e energia em relação aos transistores convencionais usados em
equipamentos lógicos, como microprocessadores, que precisam estar sempre
energizados para manter a informação. Em contraste, a tecnologia da HP
não é volátil --é apenas necessário aplicar energia para mudar o estado
da chave e ler seu valor.
Além disso, a exemplo do nanotubo de carbono, ele se presta a estruturas tridimensionais.
"A comunidade está correndo atrás disso há 30 anos", disse Williams.
Nenhum comentário:
Postar um comentário