quinta-feira, 30 de julho de 2009

Um Pouco de História Sobre Computadores...


Os primeiros computadores da década de 1940 possuíam somente dois níveis de linguagem de programação: o nível da linguagem de máquina, no qual toda a programação era feita, e o nível da lógica digital, onde os programas eram efetivamente executados. Com Wilkes, em 1951, surgiu a ideía de se projetar um computador a três níveis, a fim de se simplificar o hardware. Esta máquina tinha um programa denominado interpretador armazenado permanentemente, cuja função era executar os programas em linguagem de máquina. O hardware assim poderia ser simplificado: teria apenas que executar um pequeno conjunto de microinstruções armazenadas, ao invés de todo o programa em linguagem de máquina, o que exigia menos circuitos eletrônicos. A partir daí começam a evoluir as linguagens e as arquiteturas das máquinas, impulsionadas, principalmente, pelo aparecimento de um novo conceito na História da Computação: os Sistemas Operacionais.

Da segunda geração de computadores aos dias de hoje

A segunda geração (1956 - 1963) foi impulsionada pela invenção do transistor (1948) e em 1956 já se produziam computadores com esta tecnologia. Apareceram também os modernos dispositivos, tais como as impressoras, as fitas magnéticas, os discos para armazenamento, etc. Os computadores passaram a ter um desenvolvimento rápido, impulsionados principalmente por dois fatores essenciais: os sistemas operacionais e as linguagens de programação.Os circuitos integrados propiciaram um novo avanço e com eles surgiram os computadores de terceira geração (1964 - 1970). As tecnologias LSI, VLSI e ULSI abrigam milhões de componentes eletrônicos em um pequeno espaço ou chip, iniciando a quarta geração, que vem até os dias de hoje. Os atuais avanços em pesquisa e o projeto de novas tecnologias para os computadores estão possibilitando o surgimento da quinta geração. Dois avanços que configuram um divisor de águas são o processamento paralelo, que quebrou o paradigma de von Neumann, e a tecnologia dos supercondutores.

Arquiteturas de computadores e sistemas operacionais

O termo arquitetura de computador vem da possibilidade de se visualizar uma máquina como um conjunto hierárquico de níveis que permite entender como os computadores estão organizados. Os primeiros computadores digitais por exemplo somente possuiam dois níveis. O primeiro é chamado o nível da lógica digital, formado no início por válvulas e depois por transistores, circuitos integrados, etc. O segundo é chamado de nível 1, também chamado de nível de microprograma, que é o nível da linguagem da máquina, onde toda a programação era feita, através de zeros e uns, e que posteriormente seria o responsável por interpretar as instruções do nível 2.

Com Maurice Wilkes em 1951 surgiu outro nível, onde as instruções eram escritas de um modo mais conveniente para o entendimento humano: a técnica consistia em substituir cada instrução desse novo nível por um conjunto de instruções do nível anterior (nível da máquina) ou examinar uma instrução de cada vez e executar a sequência de instruções equivalentes do nível da máquina. Denominam-se estes procedimentos por tradução e interpretação. Isto simplificou o hardware que agora somente tinha um conjunto mínimo de instruções e portanto menos circuitos eram necessários.

A partir daí a evolução do hardware avança juntamente com as novas descobertas científicas: quase na mesma época do aparecimento dos transistores, por exemplo, surgiu o conceito de barramento de dados, que acelerou a velocidade dos computadores. Ao mesmo tempo apareceram os grandes sistemas operacionais, (simplificadamente, um conjunto de programas mantidos no computador durante todo o tempo, liberando o programador de tarefas relacionadas diretamente com o funcionamento da máquina), como o DOS e OS, da IBM. Estes evoluíram possibilitando novos conceitos que melhoraram a performance das máquinas, como por exemplo os sistemas de multiprogramação, isto é, a possibilidade de vários programas serem executados em paralelo em uma mesma da máquina. Se um destes programas tiver origem em um terminal remoto, tal sistema será chamado de tempo compartilhado. Um importante marco que possibilitou esses avanços foi a introdução de processadores de entrada e saída, também chamados de canais. Isso motivou o aparecimento dos conceitos de concorrência, comunicação e sincronização: uma vez que dois processadores estão operando simultaneamente, surge a necessidade de prover mecanismos para sincronizá-los e estabelecer um canal de comunicação entre eles.

É a era das arquiteturas mainframes: o suporte às tarefas computacionais e o desenvolvimento das aplicações eram feitos numa área central, denominada centro de computação. Terminais conectados diretamente à máquina eram utilizados somente por pessoas relacionadas às aplicações disponíveis.

Nos anos 70 surgiram os supercomputadores, máquinas que inovaram na arquitetura. Até o momento, o crescimento da eficiência dos computadores estava limitado pela tecnologia, mais especificamente pelo processamento escalar que exigia que o processador central de um computador terminasse uma tarefa para começar a realizar outra, produzindo o gargalo de von Neumann. Um avanço significativo veio com o supercomputador Cray-1, da Cray Research, em 1971. Foi a primeira máquina pipeline, cujo processador executava uma instrução dividindo-a em partes, como na linha de montagem de um carro. Enquanto a segunda parte de uma instrução estava sendo processada, a primeira parte de outra instrução começava a ser trabalhada. A evolução seguinte foi a denominada máquina vetorial, ou máquina SIMD (single instruction multiple data) cujo processador trabalhava com mais de um conjunto de dados ao mesmo tempo. Um pouco depois surgiu a arquitetura MIMD (multiple instructions multiple data) e apareceram máquinas com múltiplos processadores como a Connection Machine, com 65.536 processadores.

Há primariamente três limites para a performance dos supercomputadores: a velocidade do processador, o gasto de tempo (o termo técnico, amplamente utilizado na Computação, é overhead), que envolve fazer um grande número de processadores trabalharem juntos em uma única tarefa, e a velocidade de entrada e saída entre os processadores e entre os processadores e a memória. A velocidade dos processadores aumenta a cada dia, mas a um alto custo de pesquisa e desenvolvimento, e a realidade é que se está alcançando os limites dos processadores baseados em silício. Seymour Cray demonstrou que a tecnologia de gálio arsênico poderia ser a solução, mas é muito difícil trabalhar com ele e poucas indústrias estariam aptas a desenvolver processadores desse tipo. A solução, como se falará mais abaixo caminha para o uso de um maior número de processadores, dando maior velocidade ao computador pelo uso desses processadores através do processamento paralelo.

Com a tecnologia VLSI (quarta geração de computadores) surgiram os minicomputadores, o que possibilitou muitas empresas e universidades informatizarem seus departamentos. Os grandes usuários interligavam os minicomputadores para enviar tarefas aos seus mainframes. A arquitetura principal continuava no entanto estabelecida no centro de computação. Do minicomputador para o computador pessoal foi somente um passo, e no início da década de 1980 apareceram os primeiros PC's. Ainda nos anos de 1980 apareceram as arquiteturas RISC (Reduced Instruction Set Code), com a promessa de ganho de desempenho pela eliminação do conceito de microprograma. De qualquer maneira estas máquinas ainda são máquinas de von Neumann tradicionais, com todas as suas limitações, a maior delas a velocidade dos circuitos que não pode crescer indefinidamente.

As tentativas de quebrar o gargalo de von Neumann e o início da descentralização dos sistemas, com o surgimento das arquiteturas de rede que possibilitaram a universalização do uso da tecnologia da Computação, fizeram emergir e desenvolver as arquiteturas paralelas de hardware.

A idéia de incluir paralelismo nos computadores é tão antiga quanto os próprios computadores. Trabalhos desenvolvidos por von Neumann na década de 1940 já discutiam a possibilidade de algoritmos paralelos para a solução de equações diferenciais. O sistema Model V, desenvolvido entre 1944 e 1947 por G. R. Stibitz e S. B. Willians nos laboratórios da Bell Telephone é um exemplo típico de máquina paralela. Constituído por dois processadores e de três posições de entrada e saída, esse multiprocessador primitivo tanto era capaz de executar dois programas distintos como era possível que os dois processadores ficassem alocados para um mesmo programa. Posteriormente foi desenvolvido o Illiac IV, na década de 1960, constituído por 64 processadores. Como foi citado, a partir da década de 1970 começaram a ser produzidos supercomputadores baseados em arquiteturas paralelas.

Juntamente com as arquiteturas evoluiram os sistemas operacionais e a evolução das linhas de processadores de uma empresa como a Intel servem para refletir a evolução da indústria dos computadores em um determinado período. Como destaque podem-se citar o MS-DOS, o OS/2 e o UNIX. Especialmente este último, que surgiu como fruto dos trabalhos de um engenheiro da Bell Labs, Ken Thompson, foi popularizado nos meios universitários que usavam computadores PDP-11/45, durante a década de 1970. A palavra UNIX espalhou-se rapidamente por todo o mundo e no início de 1980 este sistema operacional estava disponível em mais máquinas do que qualquer outro sistema operacional da época, continuando hoje ainda a ser amplamente utilizado.

A mais nova arquitetura, que determinou a mais recente evolução da Computação foi o resultado da rápida convergência das tecnologias de comunicações de dados, telecomunicações e a própria informática. É a Internet, ou modelo computacional baseado em uma rede, que teve sua origem nos anos da década de 1970, como um esforço do Departamento de Defesa dos EUA para conectar a sua rede experimental, chamada ARPAnet, a várias outras redes de rádio e satélites. Espalhou-se logo em seguida nos meios acadêmicos e está bastante popularizada.

Continuarei a publicar mais artigos sobre o inicio da era dos computadores mais a frente.

Aranha Esperta!


Cientistas em Taiwan descobriram uma espécie de aranha que cria um "clone" de si mesma para despistar seus predadores.

Em artigo publicado na revista especializada Animal Behaviour, os biólogos Ling Tseng e I-Min Tso, da Universidade de Tunghai, afirmam ainda que este pode ser o primeiro exemplo de um animal capaz de construir uma réplica em tamanho natural de seu próprio corpo.

Segundo eles, o comportamento da espécie, chamada Cyclosa mulmeinensis, também ajuda a esclarecer por que muitos aracnídeos gostam de decorar suas teias com ornamentos estranhos, como partes de plantas, dejetos e restos de presas e de ovos.

Como esses detritos geralmente têm as mesmas cores das aranhas, os cientistas suspeitam que eles ajudem a camuflar a aranha.

'Iscas'

Tseng e Tso observaram, em uma ilha na costa de Taiwan, que aCyclosa mulmeinensis não apenas decorava sua teia, como também juntava os detritos para compor objetos de seu próprio tamanho.

Segundo os cientistas, esses "dublês" atraíam os predadores - em geral, vespas - por também terem a mesma cor e a mesma maneira de refletir a luz que as verdadeiras aranhas.

"Nossos resultados mostram que esta espécie vulnerável de aranha se protege de ataques de predadores, construindo iscas que os atraem mais do que ela própria", escreveram os pesquisadores em seu artigo.

Eles afirmam que em teias não decoradas, as vespas atacavam diretamente as aranhas.

Mistério

Há mais de cem anos, cientistas vêm tentando entender por que muitas espécies de aranhas decoram suas teias.

Mas para Tso, não há uma só resposta.

"Creio que a função da decoração varia entre as espécies", disse o cientista à BBC, citando como exemplo as teias decoradas com seda, que têm por objetivo reforçar a trama e impedir que ela seja destruída. Outras teias são decoradas para atrair e deter presas.

O disfarce é um recurso muito usado por vários animais.

Alguns tentam evitar serem vistos usando a camuflagem para se "misturar" a seu habitat, como as mariposas. Outros, como as lagartixas, desenvolvem artefatos mais sofisticados, como o de conseguir se soltar se sua cauda por pega. Isto mostra a sabedoria de um grande projetista e ao mesmo tempo mostra que tudo que existe hoje não foi obra do mero acaso, ou de uma evolução.

quinta-feira, 23 de julho de 2009

Gripe Suína se Assemelha A Gripe Espanhola


Um estudo americano realizado em animais sugere que o vírus H1N1, da gripe suína, ataca o sistema respiratório de maneira mais forte que o da gripe comum.
Para avaliar o impacto do vírus, a equipe da Universidade de Winsconsin realizou testes em furões, macacos e camundongos infectados com o H1N1 e com o vírus da gripe comum.
Os resultados, publicados na revista científica Nature, indicam que o vírus da gripe suína se reproduz em maior número no sistema respiratório, provocando mais danos aos tecidos, principalmente nos pulmões.
Além disso, os pesquisadores destacam ainda que o vírus H1N1 tem capacidade de penetrar de maneira mais profunda no tecido respiratório – o que aumentaria as chances de a gripe virar uma pneumonia.
O estudo sugere que, apesar dos potenciais danos que pode causar ao sistema respiratório, a gripe suína produz, na maioria dos casos, apenas sintomas leves e o vírus ainda é sensível aos antivirais.
Semelhanças
Além de avaliar os danos causados no sistema respiratório, a pesquisa ainda sugere que o H1N1 estaria estreitamente relacionado com o vírus que causou uma grande pandemia em 1918, que matou milhões de pessoas.
Segundo Yoshihiro Kawaoka, que liderou o estudo, assim como o vírus da gripe suína, o responsável pela pandemia em 1918 também causava mais danos ao sistema respiratório do que a gripe comum.
Além dessa semelhança, os pesquisadores ainda compararam amostras de pessoas que sobreviveram à pandemia de 1918 e observaram que elas pareciam ter mais imunidade para combater o H1N1.
De acordo com o estudo, “a transmissão contínua do vírus entre humanos poderia resultar no surgimento de variantes patogênicas do vírus, assim como ocorreu em 1918”.
O professor Ian Jones, especialistas em gripe da Universidade de Reading, na Grã-Bretanha, afirmou que o estudo oferece a análise que os pesquisadores estavam aguardando sobre a gripe suína.
“O estudo mostra que o novo vírus é mais sério do que o da gripe comum, mas que, na maior parte dos casos, o resultado é a melhora do paciente”, disse.
Dados da Organização Mundial de Saúde indicam que já passa de 100 mil o total de casos confirmados da doença em todo o mundo. Mais de 420 mortes relacionadas à doença já foram confirmadas.

quinta-feira, 16 de julho de 2009

Comer Mel Faz Bem

Um estudo realizado na Austrália mostrou que uma variedade de mel típica da Oceania pode ser um eficiente agente no tratamento de infecções de pele e no combate a infecções hospitalares.
Cientistas da Universidade de Sydney descobriram que o mel neo-zelandês conhecido como Manuka contém uma substância altamente tóxica para bactérias, chamada metilglioxal.
"A superbactéria conhecida como MRSA, que é resistente a vários tipos de antibiótico e pode provocar várias infecções graves em hospitais, é altamente sucetível ao mel", explicou à BBC Dee Carter, um dos autores do estudo.
Segundo o cientista, em tese, o metilglioxal também seria tóxico aos seres humanos. "Mas há outras substâncias no mel que evitam que ele seja tóxico para as células humanas, ao mesmo tempo em que promove a destruição das bactérias", disse.
Propriedades probióticas
Os pesquisadores esperam que, no futuro, produtos esterilizados à base de mel possam substituir pomadas antibacterianas e anti-sépticas no tratamento de cortes, queimaduras, picadas de inseto e outras doenças de pele.
Mas Carter reconhece que ainda são necessários novos estudos para provar a médicos que o mel Manuka pode ser um poderoso medicamento alternativo.
"Precisamos da ciência por trás disso, e é o que estamos fazendo. Médicos não querem ouvir falar de algo que pode soar como coisa de curandeiro. Eles querem algo com validação científica", disse.
Outros pesquisadores australianos acreditam que os benefícios do mel vão além do tratamento de problemas de pele.
Estudos realizados no país examinaram as propriedades probióticas do alimento, que possui uma parcela de carboidratos que são "quebrados" no intestino delgado, enquanto o resto passa sem ser digerido até o intestino grosso.
"Com o processo, esses açúcares estimulam o desenvolvimento de bactérias saudáveis no intestino, o que por sua vez ajuda a prevenir o acúmulo de toxinas", explicou à BBC a especialista em alimentos Rosie Stern.
Segundo ela, isso ajuda a evitar males como o câncer intestinal, a síndrome do intestino irritável, a doença de Crohn e a colite ulcerativa.