Pesquisar este blog

sábado, 31 de março de 2012

Você sabia que a bomba atômica ajudou a criar a net???

 
Teste aquático com bomba atômica de 21 quilotons (Fonte da imagem: U.S. Army)
Não há dúvidas de que toda guerra é triste e trágica. Isso piora exponencialmente caso o uso de armas nucleares esteja envolvido. Para constatar os terríveis efeitos de uma bomba atômica, por exemplo, basta assistir aos inúmeros documentários existentes sobre as cidades de Hiroshima e Nagasaki. Porém, também é inegável que muitos avanços tecnológicos e científicos foram desenvolvidos pela indústria militar, especialmente a dos Estados Unidos.
Durante os anos 50, a terra do Tio Sam enfrentava um dos momentos mais tensos de sua história, se preparando para um conflito nuclear com a União Soviética que poderia matar centenas de milhares de pessoas e devastar parte da infraestrutura dos países. Para combater essa ameaça, os conselheiros do então Presidente Harry S. Truman recomendaram aos Estados Unidos um enorme rearmamento para acabar com a “ameaça comunista”.

O início da Guerra Fria

Na ocasião, um relatório de 58 páginas descrevia as ações a serem tomadas pelo país, incluindo a possibilidade de ataques nucleares de prevenção à URSS. Em 1952, a eleição do novo presidente dos Estados Unidos, Dwight David Eisenhower, continuou a “aquecer” a Guerra Fria, ameaçando a URSS de uma “retaliação massiva” caso um ataque fosse feito aos EUA, independentemente do tipo de armamento utilizado, nuclear ou comum.
Entretanto, por volta de 1961, o Secretário de Defesa norte-americano, Robert McNamara, descartou a possibilidade de retaliação massiva e passou a adotar uma estratégia mais flexível para reagir aos possíveis ataques da URSS, evitando, por exemplo, que as cidades soviéticas fossem consideradas como alvos em potencial.

Mísseis poderosos, controles vulneráveis

Inspeção do míssil Minutemen I, de 1962 (Fonte da imagem: U.S. Air Force)
Ao mesmo tempo, os mísseis nucleares norte-americanos ficavam cada vez mais precisos e mais rápidos, reduzindo, por exemplo, o lançamento de um desses projéteis de oito horas para questão de alguns minutos, graças ao uso de propelentes de estado sólido. Tudo isso estava devidamente preparado para o caso de um ataque ter que ser feito às pressas, com a mínima provocação possível do adversário.
Entretanto, o cenário atual das instalações militares gerou uma preocupação: os mísseis eram potentes e fáceis de serem disparados, porém, os controles operacionais para que essa ação fosse executada continuavam tão vulneráveis quanto os de uma década atrás. Em 1963, um documento secreto enviado para o presidente Kennedy descrevia uma série de cenários de ataques nucleares que poderiam colocar os EUA em maus lençóis, incluindo um em que a União Soviética poderia matar de 30 a 150 milhões de pessoas e acabar com até 70% da capacidade industrial do país.
Com base nesses casos, o documento indicava, também, estratégias que o presidente deveria usar para reagir às investidas soviéticas e estabelecer a negociação de cessar-fogo. Entretanto, todas as essas ações exigiam um método de comunicação confiável e que pudesse sobreviver a ataques nucleares.

Alternativa aos meios de comunicação da época

  
(Fonte da imagem: Encore)
A vulnerabilidade dos meios de comunicação e dos controles de mísseis assombrou os Estados Unidos durante a era nuclear. Uma explosão atômica na ionosfera, por exemplo, poderia prejudicar toda a comunicação por ondas de rádio FM durante horas, enquanto que algumas detonações em solo poderiam derrubar a central telefônica da AT&T.
Em outras palavras, os Estados Unidos precisavam de um meio de comunicação que permanecesse ativo, para que o contato com as forças de ataque pudesse ser realizado a qualquer momento e de qualquer local, mesmo que elas ficassem espalhadas pelo país como uma estratégia de combate ao ataque do inimigo.
Sendo assim, a RAND, instituição sem fins lucrativos com sede na Califórnia, foi incumbida de apresentar uma solução para o problema. E o resultado entregue pela organização foi revolucionário em diversos aspectos, chegando a guiar os princípios da internet que conhecemos hoje.

À prova de bombas

 
Com o novo modelo de rede, bombardeios não interromperiam a comunicação 
(Fonte da imagem: Wikimedia)
Um pesquisador da RAND, Paul Baran, foi o responsável por uma solução que mudava radicalmente a forma e a natureza da rede de comunicação nacional. As redes convencionais, até então, possuíam comando e controle em seu centro e, a partir dele, o contato era estendido para os outros pontos da rede. Porém, isso era muito arriscado: uma bomba no centro e tudo pararia de funcionar.
Sendo assim, Baran começou a pensar em uma alternativa para esse modelo, uma rede distribuída e que trabalhasse com o conceito de redundância, ou seja, caso uma de suas máquinas falhasse, outra entraria no lugar dela automaticamente.  A inspiração veio das teorias neurológicas, que tratavam da maneira como o cérebro poderia continuar operante mesmo após a morte de algumas de suas células.
Entre os detalhes descritos no seu projeto de 1962, intitulado "On Distributed Communication Networks", estava o fato de que, na rede nova, uma mensagem não precisava de uma rota pré-definida para seguir. No modelo novo de comunicação, bastaria preencher os campos remetente e destinatário e, com base nisso, a mensagem encontraria o melhor caminho para chegar ao seu destino.

Monitoramento autônomo

Os diversos pontos que formam a rede, chamados de “nodos”, seriam os responsáveis por monitorar qual a rota mais rápida para cada estação e, a partir disso, direcionar a mensagem. Além de agilizar a comunicação, isso também faz com que o sistema possa desviar dos trechos inoperantes no momento, ou seja, o ataque a uma parte da rede não seria mais uma amaça.
Além disso, Baran também notou que uma mensagem poderia ser enviada mais rapidamente caso ela fosse quebrada em pequenos “pacotes” de informações, que trafegariam independentemente pela rede, reunindo-se no destino final. Apesar de as ideias serem ótimas, havia um problema: como isso tudo seria implementado era um verdadeiro enigma, já que a tecnologia analógica da época não atendia aos requisitos exigidos pelo projeto.
Para isso, Baran tinha uma proposta radical: unir computação e comunicação, duas áreas que, para a época, eram consideradas tão distintas que isso chegou a preocupar o pesquisador.

A implementação das ideias de Baran

Em 1965, as ideias de Baran foram repassadas, pela RAND, para a Força Aérea dos Estados Unidos, para que dessem continuidade à pesquisa e desenvolvimento do projeto. Como é fácil de ter percebido, o projeto já continha a base da internet que conhecemos hoje. Entretanto, não foi fácil convencer a AT&T, que detinha o monopólio da rede telefônica na época, de que seria importante colocar os novos conceitos em prática, para testá-los.
Como as ideias eram inovadoras demais para aquele tempo, a AT&T demonstrou muita resistência. Mesmo com experimentos acadêmicos do Instituto de Tecnologia de Massachusetts, em 1965, que conseguiram realizar a troca de pacotes de dados entre computadores de cidades diferentes ligados em rede, a telefônica da época não demonstrou interesse no meio de comunicação digital, mesmo com as estimativas de que o novo modelo seria muito mais barato de se manter do que o analógico, cuja manutenção custava cerca de US$ 2 bilhões anuais.
Representação gráfica dos diferentes modelos de redes de comunicação 
(Fonte da imagem: Cyber Telecom)
Por essas razões, a AT&T não aceitou a proposta da Força Aérea. A única alternativa era a Agência de Comunicação de Defesa (DCA), mas Baran não acreditava que eles estariam interessados. Por não entenderem muito bem o conceito por trás da comunicação digital, empresas e organizações não viam o projeto com muito ânimo.
Depois disso, o projeto foi arquivado. Foi só em 1969, quando a Agência de Projetos de Pesquisa Avançada de Defesa (DARPA) começou a desenvolver um projeto de terminais interconectados com o propósito de compartilhar recursos computacionais, o material desenvolvido por Paul Baran foi uma das fontes consultadas. Assim, podemos dizer que a resistência da troca de pacotes de dados que temos hoje na internet se deve, em grande parte, a uma pesquisa iniciada para desenvolver uma rede capaz de sobreviver a um ataque nuclear.
E como se não bastasse, Paul Baran, que faleceu em março de 2011, também está entre os criadores de outra invenção muito útil nos dias de hoje: as passagens com detectores de metal usadas em aeroportos do mundo todo.
....
Esse é o começo da história adaptada pelo site Ars Technica e contada por Johnny Ryan no livro “A History of the Internet and the Digital Future”. Infelizmente, a obra ainda não foi lançada no Brasil. Para saber um pouco mais sobre o desenvolvimento da internet, não deixe de conferir os infográficos sobre a história da internet até os anos 80 e durante os anos 90. Além disso, para complementar ainda mais o assunto abordado, há um artigo especial sobre a trajetória da internet no Brasil.


Leia mais em: http://www.tecmundo.com.br/internet/21381-como-a-bomba-atomica-ajudou-a-criar-a-internet-.htm#ixzz1qjsxnKUe

sexta-feira, 30 de março de 2012

Orbis pode ser o codinome do novo PlayStation.

Suposto console poderia reproduzir jogos com resolução de 4096x2160.

  
(Fonte da imagem: Reprodução/Kotaku)
O PlayStation 4 pode estar a caminho mais rápido do que os consumidores imaginam. Novos rumores publicados nesta quarta-feira pelo site Kotaku dão conta que o codinome do novo aparelho é “Orbis”, palavra latina que significa círculo ou anel. O termo “Vita” também foi extraído do latim e significa vida. Some os dois nomes e podemos formar a expressão “círculo da vida”.
Além disso, as informações do site dão conta que o novo modelo deve chegar às lojas já no ano que vem. As especulações apontam ainda para a ausência de retrocompatibilidade com as versão anteriores, como os PlayStations 2 e 3.
Uma página de desenvolvimento, já retirada do ar, aponta ainda outras informações de hardware, como CPU AMD x64 e GPU AMD Southern Islands, com capacidade de reproduzir jogos com resolução de 4096x2160. Além disso, jogos em 3D poderiam ser reproduzidos em 1080p.
Kits de desenvolvimento já foram enviados a algumas empresas, com previsão de retorno ainda neste ano para ajustes e melhorias. A Kotaku sugere ainda que os jogos estarão disponíveis em apenas dois formatos: Blu-ray ou via download. Cada disco será individual, ou seja, ao jogá-lo você precisará cadastrá-lo na PSN e informar quem é que está jogando.
Aqueles que tentarem pegar um jogo do Orbis em segunda mão ou emprestado de algum amigo, certamente enfrentarão algumas restrições de conteúdo ou terão que desembolsar um pouco mais para ter acesso ao conteúdo especial.
Via BJ


Leia mais em: http://www.tecmundo.com.br/video-game/21346-orbis-pode-ser-o-codinome-do-novo-playstation.htm#ixzz1qeVoz63r

Chip de memória seram transparentes no futuro e smartphones também.

Responsáveis pela descoberta, pesquisadores da Rice University pretendem usar a tecnologia no desenvolvimento de smartphones praticamente invisíveis.


Não estamos muito longe de chegar a uma época em que os celulares vão dispensar completamente qualquer espécie de tela, se tornando praticamente invisíveis ao olhar. É isso o que garantem pesquisadores da Rice University, que anunciaram recentemente a criação de chips de memória flexíveis e transparentes que usam óxido de silício para processar e armazenar dados.
Os responsáveis pelo projeto já estão procurando meios de aliar a nova tecnologia a displays touchscreen flexíveis e a eletrodos, baterias e circuitos transparentes que estão sendo desenvolvidos atualmente dentro dos laboratórios da instituição.
Todo o processo de criação das novas memórias é explicado no vídeo acima pelo Dr. James Tour, líder do grupo responsável pelo projeto. Na prática, a descoberta da tecnologia significa que, dentro de alguns anos, não é difícil imaginar o anúncio de um iPhone 8 praticamente invisível que pode ser usado nos pulsos de maneira semelhante a um relógio convencional.



Leia mais em: http://www.tecmundo.com.br/memoria/21448-cientistas-anunciam-criacao-de-chip-de-memoria-transparente.htm#ixzz1qeS7FQMy

Como instalar o Android em um netbook.

Se você acompanha o mundo tecnológico há algum tempo, com certeza já ouviu falar no sistema operacional móvel Android. Em sua quarta versão, o SO para mobiles da Google vem conquistando o público aos poucos, e o número de pessoas que utilizam o sistema cresce a cada dia.
Porém, nem todo mundo tem acesso a um celular com Android. Por isso, o projeto Androidx86 foi lançado. Com ele, você pode instalar o sistema operacional móvel em máquinas comuns, com foco especial para os netbooks.
Além de possibilitar que qualquer pessoa tenha acesso ao SO da Google, esse projeto também facilita a vida de quem deseja atualizar o Android para sua versão mais recente, mas tem receio de fazê-lo por não conhecer direito os recursos oferecidos pela última edição do sistema.
Ficou interessado na possibilidade de ter o Android rodando em seu computador ultraportátil? Então confira abaixo todos os passos necessários para instalar o SO no disco rígido, sem complicações.

Antes de começar

Para instalar o Android em um netbook, você vai precisar ter um pendrive bootável com o Androidx86 nele. Assim fica mais fácil instalar o sistema operacional móvel no disco rígido. Se o seu computador portátil possuir leitor de CD/DVD, é possível utilizar essas mídias no lugar do dispositivo de memória.
Utilize o link abaixo para baixar o Androidx86. É possível perceber que a lista de opções para download é relativamente grande, pois abrange diferentes fabricantes. Mesmo que a marca do seu ultraportátil não esteja na lista, é possível instalar o Android nele sem maiores problemas.
A melhor forma de descobrir qual a opção correta para o seu aparelho é buscando na internet pelo nome do netbook, seguido pelo termo “Androidx86”. Ou seja, se você possui um netbook Asus, por exemplo, é só escrever “Asus XXXX Androidx86” no seu site de busca preferido e investigar o que é dito por outras pessoas a respeito.

E o pendrive bootável?

Existem diversos aplicativos para a criação de dispositivos móveis que suportam boot. No artigo “6 programas para criar pendrives bootáveis”, você encontra algumas das ferramentas do gênero mais utilizadas. É só escolher uma delas, instalar em um computador e seguir os passos necessários.

Procedimento de instalação

Agora que você tem um pendrive bootável, é hora de conectá-lo ao netbook escolhido e esperar até que o boot aconteça. Se tudo der certo, uma tela como a exibida na imagem abaixo será mostrada.

Se você quiser testar o SO antes de instalá-lo efetivamente, pode escolher a opção “Run Android-x86 without installation”. Essa é uma forma bem eficaz de descobrir se os recursos oferecidos pelo sistema operacional podem ser utilizados sem problemas pelo computador ultraportátil.
Para realmente instalar o Android no disco rígido, selecione o item “Install Android-x86 to harddisk”. Na tela seguinte, é possível conferir os HDs, as partições e os dispositivos detectados pelo assistente de instalação.

Você pode selecionar um dos itens exibidos na lista ou criar/modificar as partições presentes no disco, selecionando a opção “Create/Modify partitions” — mostrada na tela. Utilize a tecla direcional para baixo, a fim de escolher um item do menu, e pressione “Enter” para confirmar.
Vale lembrar que todo cuidado é pouco quando você está mexendo com as partições de um disco. Uma vez que você deleta uma das partes, não há mais como recuperar o conteúdo que estava nela. Por isso, fique bem atento quando executar esta etapa do processo.
Depois de escolher o pedaço do disco para onde os arquivos do Android serão copiados, é hora de eleger o sistema de arquivos desejado. Utilizando a tecla direcional para baixo, do teclado, selecione a opção “ext3” e pressione “Enter” para prosseguir.

O passo seguinte é decidir se o gerenciador de boot GRUB será instalado. Caso você tenha a intenção de adicionar mais de um sistema operacional ao netbook, é altamente recomendável ter o GRUB em seu ultraportátil. A escolha da opção desejada pode ser feita com as setas direcionais do teclado. Para confirmar, pressione “Enter”.
Ao final da instalação do gerenciador de boot, uma mensagem é mostrada na tela, indicando se o processo foi finalizado com sucesso ou não. Caso tudo tenha saído como planejado, você pode rodar o Android, selecionando a opção “Run Android-x86”.

Se você quiser reiniciar o computador antes de testar o sistema operacional da Google, é só escolher o item “Reboot”. Lembre que para escolher um item na tela você deve utilizar as setas direcionais do seu teclado, sempre pressionando a tecla “Enter” para confirmar uma ação.

 .....
Agora que você já sabe como instalar o Android em um netbook, aproveite para conferir o que o sistema operacional tem para oferecer. O processo acima também pode ser realizado em uma máquina virtual. Uma facilidade a mais para quem não possui um ultraportátil em mãos ou não quer arriscar a instalação do SO da Google em uma máquina de verdade.


Leia mais em: http://www.tecmundo.com.br/android/21195-como-instalar-o-android-em-um-netbook-video-.htm#ixzz1qd6JzTwj

quinta-feira, 29 de março de 2012

Agora é oficial: PT de Mamanguape só tem uma pré-candidatura a Prefeito


Findado o prazo oficial de 15/03 à 25/03 no calendário eleitoral seguindo o regimento do 4º Congresso Nacional do PT, e aprovado pela executiva municipal do Partido dos Trabalhadores de Mamanguape para inscrição de pré - candidaturas a prefeito, apenas uma inscrição foi dada entrada na noite do último domingo, 25/03, na sede do partido.

A registro do nome foi feito ao Presidente do GTE - Grupo de Trabalho Eleitoral do PT, o Pastor João Felinto, que recebeu das mãos dos dirigentes Vânia Maria, Antonio Marinho, Josenilton Augusto, João Galego e Valdete Soares o documento de inscrição da pré - candidatura a prefeito de Aguinaldo Lemos.

De acordo com o Pastor João, presidente do GTE, agora a proposta vai ser levada ao encontro municipal no dia 06/05, com todos os filiados, para aprovação.

Já o pré candidato Aguinaldo Lemos, se sentiu muito feliz por esse documento estar assinado por todos os 21 membros do Diretório Municipal do PT de Mamanguape, defendendo o seu nome, “é prova de que estamos em uma total unidade e ação em busca de melhores dias para o nosso povo, com o início desta grande caminhada. A luta continua”, disse Lemos ao Blog Tribuna do Litoral.

Tribuna do Litoral PB

quarta-feira, 28 de março de 2012

Ai se eu te pego Obama!!!!!

Sombra Win.

Ninjas eles sempre nos surpreendem.

5 tecnologias que vão revolucionar o mundo dos computadores.

Se em algum momento você já imaginou como seria se certas tecnologias de comando de outros dispositivos — como o Kinect — fossem utilizadas no seu computador, essa curiosidade poderá ser respondida mais cedo do que você imagina: em 2012, estão previstos lançamentos que prometem revolucionar as formas de controle de laptops, desktops e tablets. 
As novidades que chegarão ao mercado pretendem substituir o uso do mouse, deixando o controle ainda mais prático, fácil e cheio de estilo. Entre as inovações estão as possibilidades de efetuar comandos no computador apenas com o olhar ou controlá-lo com simples gestos que podem ser capturados mesmo se você estiver do outro lado da sala. 
Confira abaixo uma lista com as novidades — e revoluções — que chegarão em breve ao mundo dos computadores. 

Controle visual

Emitir comandos apenas com o olhar é uma das possibilidades mais incríveis e esperadas no universo tecnológico. Imagine poder selecionar, navegar, aproximar uma imagem e rolar a barra de uma janela apenas olhando para ela. Se você já viu isto em algum filme de ficção científica, saiba que a Tobii, empresa criadora do sistema "Gaze Interaction", pretende disponibilizar brevemente este estilo de comando visual no mercado de computadores.
Confira abaixo, no vídeo, o jogo EyeAsteroids — também desenvolvido pela Tobii — que já utiliza a tecnologia de controle visual.

Controle touchscreen avançado 

O comando por touchscreen é uma realidade em vários dispositivos. No entanto, algumas funcionalidades mais aprimoradas nos controles por toque — como atuar com mais opções de menu — ainda não estavam disponíveis. 
É ai que o dispositivo-anel entra como uma das grandes novidades para esse sistema, disponibilizando funções mais avançadas, como atuar da mesma forma que o botão direito do mouse ou ser programado para agir como réplica de alguns comandos específicos.
 
O Ringbow oferece mais funcionalidades ao comando touchscreen 
(Fonte da imagem: Reprodução/Mashable)
Outra novidade que trará inovações ao mercado — e que já foi anunciada pelo Tecmundo — é o “touchscreen tátil”, criado pela Microsoft. Esse modelo gera uma textura real na superfície da tela, que possui células plásticas sensíveis a luz. Assim, dependendo do comprimento de onda incidente, os pixels atingidos por raios ultravioleta deixam a tela com uma textura macia ou rugosa.
Essa tecnologia facilitaria a digitação em telas touchscreen, fazendo com que você sinta o teclado ao escolher os caracteres. Inicialmente desenvolvida para ser utilizada no Microsoft Surface — uma “mesa touchscreen” —, essa tecnologia também poderia ser empregada em outros dispositivos que necessitem de comando por toque.

Controle por gestos

No mundo dos video games, o Kinect introduziu o controle de movimentos físicos, que está ganhando cada vez mais o gosto dos consumidores. Aproveitando esta tendência, a Microsoft também lançou esse mesmo estilo de comando para o Windows. 
Já no mundo das televisões, a Samsung apresentou um modelo de TV com controle por gestos. Com ele, é possível mudar os canais e modificar o volume. Outro destaque é que o sensor de movimento — formado por uma câmera — já vem integrado ao aparelho, sem precisar ser instalado.
 
O comando por gestos é uma das fortes tendências do mercado 
(Fonte da imagem: Reprodução/Mashable)
Voltando aos computadores, a empresa XTR3D quer facilitar ainda mais o acesso a essa tecnologia. Para isso, ela desenvolveu um sistema de comando por gestos que funciona com qualquer câmera 2D, como uma webcam. Assim, não será necessário adquirir um dispositivo específico (e caro) para que o comando por movimento passe a funcionar em seu laptop ou tablet. 
Além disso, esse sistema permite que os gestos sejam captados a uma boa distância, e você poderá abrir uma pasta mesmo estando do outro lado da sala.

Controle por voz

Mesmo não sendo uma novidade, a tecnologia de reconhecimento por voz está constantemente em destaque por ser uma das mais funcionais e práticas. Se antes era necessário soletrar de forma mecânica palavras-chaves para que o dispositivo pudesse entender um comando, hoje, com a evolução desse sistema, os comandos estão mais naturais e o dispositivo pode compreender frases mais complexas. 
O mercado de controle por voz — especialmente quanto ao uso das assistentes virtuais inteligentes, como a Siri, do iPhone — mostra uma tendência a não se limitar a telefones ou video games, apresentando previsões para logo conquistar o universo dos computadores.

Mouse-luva

 
A luva permite realizar diversos comandos 
(Fonte da imagem: Reprodução/Mashable)
A empresa Kickstarter desenvolveu um projeto denominado “Keyglove” (algo como luva-chave), que pode ser lançado ainda este ano. Como um mouse multisensor colocado na mão, esta luva wireless permite controlar dispositivos com flexibilidade, além de poder ser programada para atuar com diversos sistemas e softwares.


Leia mais em: http://www.tecmundo.com.br/tecnologia/21274-5-tecnologias-que-vao-revolucionar-o-mundo-dos-computadores.htm#ixzz1qRsRbfhr

Veja a internet que veio antes da internet.

Saiba que a internet e as redes sociais também tiveram antecessores muito curiosos, que não fizeram sucesso devido a problemas gerenciais ou, simplesmente, por terem sido criados em uma época em que o custo era alto demais.

Antes da internet, houve a Viewtron

Flórida, Estados Unidos, 1980: cerca de 5 mil cidadãos comuns trocam mensagens, leem notícias e até se divertem com games em uma rede que se assemelhava muito à internet, quase dez anos antes de o cientista inglês Tim Berners-Lee inventar a World Wide Web.
A Viewtron, como era conhecida, era uma rede fornecida pela empresa de mídia Knight Rider e a telefônica AT&T. Para usá-la, havia uma série de pré-requisitos: para começar, era necessário ter um terminal com teclado dedicado exclusivamente para a Viewtron. Esse equipamento era fornecido pelas empresas a um custo que ia de US$ 600 a US$ 900.
Mais tarde, com a popularidade dos computadores pessoais, a Viewtron passou a oferecer suporte para máquinas da Apple e IBM, além dos famosos Commodore. Também era necessário ter uma TV em cores, pagar a mensalidade de 12 dólares (com primeiro mês grátis) e dispor de uma linha de telefone para a comunicação com a central, que tinha um custo adicional de 1 dólar por hora. No vídeo acima, é possível conferir o equipamento e a interface usada pela rede.
A ideia por trás do serviço era muito simples: novas maneiras de jornais e revistas se comunicarem com seus leitores, nova modalidade de vendas de anúncios e a promessa de que os assinantes poderiam fazer compras e realizar transações bancárias sem precisar sair de casa, além de se informar e trocar mensagens com outras pessoas. Qualquer semelhança com a internet de hoje é mera coincidência.

Os primórdios das redes sociais

Friendster não soube aproveitar a demanda de seus usuários 
(Fonte da imagem: Dan Taylor)
A precursora das redes sociais surgiu em 1997 e se chamava Six Degrees. Curiosamente, o site sobreviveu até 2001, quando começou a ser substituído por serviços semelhantes e com mais potencial. Um desses “concorrentes” foi o Friendster, que por pouco não abocanhou o mercado que hoje pertence ao Facebook.
Lançado em maio de 2003, o Friendster conquistou milhões de adeptos em apenas alguns meses depois do lançamento. Em 2005, o site contava com 17 milhões de pessoas inscritas, mas a sua glória não durou muito. O serviço não conseguiu manter sua popularidade nem lidar com problemas que, na época, eram grandes demais.
Para começar, os responsáveis pelo Friendster não conseguiam trabalhar com a carga de processamento exigida para uma quantidade tão grande de usuários. Assim, no fim de 2003, era comum que uma página da rede levasse até meio minuto para ser carregada completamente.
Além disso, as primeiras versões do serviço permitiam apenas a criação de perfis individuais, não oferecendo suporte para a inclusão de grupos ou comunidade. Isso levou muitos usuários a “burlarem” o sistema criando perfis falsos e adicionando amigos. Dessa forma, as páginas do “Homer Simpson” ou da banda “U2” acabavam se transformando, de certa forma, em uma espécie de fã-clube. Esse tipo de perfil ficou conhecido como “fakester”.

Passo em falso

Infelizmente, em vez de perceber a demanda que os usuários exigiam e supri-la de alguma forma, a rede começou a caçar esses perfis falsos e a deletá-los, enfurecendo as pessoas e fazendo com que elas migrassem para redes concorrentes.
Essas lições foram levadas em conta por sucessores do Friendster, como o MySpace e o Facebook, que apoiam a criação de páginas para divulgação de bandas, grupos e até bichos de estimação. Recentemente, o Friendster reabriu como uma rede para gamers e voltado para o mercado asiático.


Leia mais em: http://www.tecmundo.com.br/internet/21161-conheca-a-viewtron-a-internet-que-surgiu-antes-da-internet.htm#ixzz1qRooh1Xv

terça-feira, 27 de março de 2012

Win. Esse é épico.

Menina de 10 anos quebra recorde de levantamento de peso para mulheres.

Naomi Kutin levantou 98 kg, três quilos a mais que a antiga recordista mundial.
É e você achou que era fortão só porque levanta uns quilinhos na academia.




Uma garotinha de apenas 10 anos, Naomi Kutin, quebrou o Record mundial de levantamento de peso para mulheres em sua categoria — até 44 quilos. A recordista anterior, uma mulher de 44 anos, havia levantado 95 quilos.
Naomi — que pesa aproximadamente 42 quilos e mede menos de 1 metro e meio de altura — disse que iniciou a sua carreira depois de observar que seus amigos eram capazes de fazer muitas coisas que ela não conseguia, e isso a motivou a querer fazer algo extraordinário.
Apelidada de “Supergirl”, ela disse que nenhum dos seus colegas de classe ou professores acreditou que ela realmente era a nova recordista mundial e só a levaram a sério quando a menina apresentou a medalha e certificado que recebeu pelo feito.
Naomi disse que, no caso de alguém quebrar o seu recorde, ela continuará treinando para conquistá-lo de volta, e se ninguém mais tentar vencê-la, a menina tentará superar as próprias marcas.


Leia mais em: http://www.tecmundo.com.br/mega-curioso/21159-menina-de-10-anos-quebra-recorde-de-levantamento-de-peso-para-mulheres.htm#ixzz1qL0uHT1U

segunda-feira, 26 de março de 2012

Você sabia que Steve Jobs planejou acabar com as operadoras de telefonia?

Antes do lançamento do primeiro iPhone, Jobs tentou criar uma rede própria para acabar com o domínio das operadoras.

  
(Fonte da imagem: Divulgação/Apple)
Hoje, para utilizar um iPhone (ou qualquer outro aparelho) é necessário possuir contrato com alguma operadora de telefonia celular. Mas se Steve Jobs tivesse conseguido colocar em prática seus planos de criar uma rede própria, essa história seria bem diferente. Entre 2005 e 2007, Jobs estudou formas de utilizar redes Wi-Fipara criar uma operadora sintética, independente das redes de telefonia. As informações foram obtidas pelo PC World, que entrou em contato com John Stanton, um dos maiores nomes da indústria de redes sem fio.
Segundo a entrevista, o funcionamento desta rede seria algo parecido com o VoIP, mas totalmente móvel. Com isso, o ex-CEO da Apple acabaria gerando alguns prejuízos para as principais operadoras do mundo. Sem perspectiva de conseguir bons resultados, Jobs abandonou o projeto e lançou o iPhone em conjunto com as empresas de telefonia. Vale lembrar que recentemente, a Apple fechou um acordo de 15,5 bilhões de dólares com a Sprint.


Leia mais em: http://www.tecmundo.com.br/steve-jobs/15385-steve-jobs-planejou-acabar-com-as-operadoras-de-telefonia.htm#ixzz1qH8L9h44
 

HP promete mais de 32 horas de autonomia em novas baterias para notebooks.

  
(Fonte da imagem: Reprodução/Toms Hardware)
Uma das grandes reclamações de quem utiliza notebooks é a autonomia das baterias. Mesmo com a criação dos ultrabooks e a promessa de componentes que os mantêm ligados por aproximadamente 10 horas, há quem ainda ache que esse período é muito curto. Se depender da HP, ninguém terá mais motivos para reclamar disso.
De acordo com o site Toms Hardware, em um recente evento realizado na sede da empresa norte-americana, foi revelada a EliteBook Battery. Essa bateria de nove células, destinada a princípio para o notebook EliteBook 8460p, promete uma autonomia de até 32 horas e meia para o portátil – a maior do mercado atualmente.
Assim como em qualquer laptop, o tempo de duração da bateria varia de acordo com a configuração aplicada ao gadget. Contudo, as configurações necessárias para que essa nova bateria proporcione mais de um dia de uso não foram detalhadas. É válido salientar que com as horas estendidas de autonomia, o laptop também ganha um peso extra.
Galeria de Imagens


Leia mais em: http://www.tecmundo.com.br/bateria/21188-bateria-para-notebooks-da-hp-promete-mais-de-32-horas-de-autonomia.htm#ixzz1qGNiCO7d

Steve Jobs planejava revolucionar televisão e livros

Biógrafo de Jobs afirma que pouco antes de morrer, o ex-CEO da Apple revelou algumas intenções para o futuro da empresa.

(Fonte da imagem: reprodução/Wikimedia Commons)
Em entrevista ao New York Times, Walter Isaacson revelou algumas novidades sobre a escrita do livro que fez sobre Steve Jobs. Na biografia, ele não contou alguns dos detalhes revelados por Jobs no leito de morte, mas agora deixou escapar que o ex-CEO da Apple planejava novos produtos para serem lançados nos próximos anos.
Entre os principais planos de Jobs estavam um novo modelo de televisão (ainda mais revolucionário do que a Apple TV) e uma diferente forma de entender as fotografias e os livros. Isaacson disse que não pode revelar mais detalhes dos produtos, por respeito à empresa que atualmente é comandada por Tim Cook.


Leia mais em: http://www.tecmundo.com.br/steve-jobs/15569-steve-jobs-planejava-revolucionar-televisao-e-livros.htm#ixzz1qFydQdJD

domingo, 25 de março de 2012

Plasma ou LED qual é a melhor?

Infográfico - Qual a melhor TV: plasma ou LED? [infográfico]
Qual é a TV ideal para você? Modelos de aparelhos existem aos montes no mercado e, devido às grandes diferenças de configurações e opções, é natural que o consumidor fique em dúvida antes de levar uma tela nova para casa. Com preços e características tão distintas, é importante pesquisar bem antes de decidir qual TV ocupará um lugar de destaque no centro da sua sala.
As telas de plasma e LED igualmente possuem seus pontos positivos e negativos. A escolha de qual opção você deseja comprar depende muito do seu perfil de consumidor, do tamanho da tela que você procura e do principal uso que você fará do aparelho, uma vez que há opções atraentes em cada uma das categorias.
O infográfico acima mostra, em linhas gerais, quais são as principais características de cada um dos tipos de tela.

Leia mais em: http://www.tecmundo.com.br/televisao/21066-qual-a-melhor-tv-plasma-ou-led-infografico-.htm#ixzz1qAgfEbrA
 

sábado, 24 de março de 2012

O incrível poder de 4 placas NVIDIA GeForce GTX 680 juntas.

Se uma NVIDIA GeForce GTX 680 é muito competente, quatro delas unidas devem ser ainda mais. Pois além de óbvio, isso é muito incrível. O site holandês Hardware.info decidiu mostrar para todos o que aconteceria se as placas de altíssimo desempenho fossem ligadas em uma única e monstruosa Quad-SLI (tecnologia daNVIDIA, similar ao Crossfire da AMD).
Como você pode ver no vídeo, o poder das placas de vídeo somadas permite muito mais qualidade gráfica do que qualquer pessoa consegue imaginar. Segundo o site que preparou o sistema, em todos os benchmarks possíveis (inclusive aqueles com três monitores), as placas foram excelentes no processamento das funções mais pesadas.
Para saber mais sobre a placa NVIDIA GeForce GTX 680, clique aqui e acesse nosso artigo completo. Se você se interessou, já é possível adquirir a pré-venda de uma placa dessas na Kabum, pelo preço de R$ 2.299,90. A data de envio está marcada para o próximo dia 28 de março.


Leia mais em: http://www.tecmundo.com.br/placa-de-video/21124-o-incrivel-poder-de-quatro-placas-nvidia-geforce-gtx-680-juntas-video-.htm#ixzz1q4p6RTzI

sexta-feira, 23 de março de 2012

GeForce GTX 680, a placa de vídeo mais rápida do mundo.

Depois de muitos rumores e informações um pouco desencontradas, agora é real. A nova GeForce GTX 680 chegou ao mercado e promete destruir a concorrência. O núcleo Kepler não veio para brincadeiras: a nova placa não é somente mais rápida que a Radeon HD 7970 da AMD — de 10% a 40%, segundo a NVIDIA —, mas possui recursos que irão revolucionar o mundo dos games.
A nova GeForce consome menos energia que as anteriores, consequentemente, gerando menos calor. Isso é possível graças a um controle mais inteligente e eficiente dos clocks da placa. Devido a isso, ela traz um recurso interessante: o GPU Boost. Ele aumenta a frequência conforme a necessidade do aplicativo e a disponibilidade de potência da placa.

Novas tecnologias para renovar o mercado de GPUs

Antes, para que algo pudesse ser destruído dentro de um jogo, os programadores precisavam desenhar e compor toda a ação, incluindo as animações. Esse modelo de destruição premeditada fazia com que o resultado final fosse sempre o mesmo. Com a nova GeForce, agora é possível executar a destruição dinâmica de objetos, ou seja, o que for destruído nunca o será da mesma maneira.
Um novo sistema de anti-aliasing (sistema que remove os serrilhados dos objetos) também foi desenvolvido pela NVIDIA. Segundo a empresa, a nova tecnologia, batizada como TXAA, apresenta a mesma qualidade de anti-aliasing da versão anterior, trabalhando em 8x, mas com o custo de desempenho equivalente a apenas 2x.
  
(Fonte da imagem: Reprodução/NVIDIA)
Outra função que promete aumentar a qualidade visual sem comprometer o desempenho é o Adaptive Vsync (Sincronização Vertical Adaptativa). Quando o Vsync é ativado, a taxa de atualização dos quadros do jogo é sincronizada com a frequência do monitor, garantindo uma movimentação muito mais suave na tela.
O problema é que, em cenas de movimentação intensa, o frame rate diminui, causando lentidão. Com o Vsync desativado essa lentidão não ocorre, mas os gráficos podem apresentar falhas.
O Adaptive Vsync junta o melhor dos dois mundos, ou seja, em trechos do jogo em que a animação é mais intensa, o Vsync é desativado automaticamente, evitando lentidão. Logo depois, ele é reativado, garantindo a fluidez da movimentação.

 As especificações oficiais da GeForce GTX 680

  • Núcleos CUDA – 1.536
  • Unidades de textura – 128
  • GFLOPs – 3.090
  • Texel fill-rate – 128,8 Gigatexels por segundo
  • Banda de memória – 192,26 GB por segundo
  • Frequência do Clock (padrão) – 1.006 MHz
  • Frequência do Clock (turbo) – 1.058 MHz
  • Clock de Memória (GDDR5) – 6.008 MHZ
  • Displays simultâneos – 4
  • Consumo – 195 W
  • Cache L2 – 512 KB
  • Frame Buffer – 2.048 MB
  • Interface de memória – 256-bits
  • Transistores – 3,54 bilhões

A GPU mais rápida do mundo

Quando disse que a GeForce GTX 680 seria a placa mais rápida do mundo, a NVIDIA não exagerou. O site Gizmodo realizou uma série de benchmarks comparando a nova placa com os outros modelos top de linha atuais. Entre os concorrentes testados, temos a Radeon HD 7970 da AMD, a Geforce GTX 580 da própria NVIDIA e um modelo turbinado da GTX 580.
Os resultados são impressionantes: de oito jogos testados, a placa venceu sete, tendo perdido apenas um para a concorrente da AMD. Em um dos testes, a placa empatou tecnicamente com a irmã mais velha, a GTX 580 turbinada. Confira na tabela os resultados:
  
(Fonte da imagem: Gizmodo)
Todos os testes foram executados em um computador com processador Core i7 3960X Extreme Edition, em uma placa mãe Asus P979X Deluxe e 16 GB de memória Corsair DDR3/1600. O sistema operacional utilizado foi o Windows 7 Ultimate 64-bits. Todos os testes foram executados na resolução de 1920x1200 com anti-aliasing 4x.
Apesar disso, segundo os analistas do Gizmodo, a placa só não surpreendeu mais pela limitação do processador. Esse gargalo acabou segurando o desempenho da GTX 680 e não permitiu que 100% da sua capacidade fosse explorada.
O consumo de energia também surpreendeu: a nova GeForce GTX 680 foi a única a conseguir manter-se abaixo dos 300 watts de consumo de energia em capacidade total. Todos os testes foram executados em uma placa de referência (padrão). Portanto, é de se esperar que novas versões com clocks maiores de fábrica cheguem ao mercado em breve.
  
(Fonte da imagem: Reprodução/NVIDIA)

Kepler também terá versões para laptops

A nova família de GPUs da NVIDIA também estará presente nos laptops: os chamados ultrabooks receberão a nova geração GT 600M de aceleradores gráficos. O baixo consumo de energia da nova arquitetura promete um excelente desempenho nas plataformas móveis.
Serão sete modelos iniciais, indo de 48 a 384 núcleos CUDA e até 64 GB por segundo de taxa de transferência de memória, dobrando a capacidade se comparada com os chips da série GT 500M. Confira os modelos na tabela.
  
(Fonte da imagem: Reprodução/NVIDIA)

O que esperar da nova GeForce GTX 680

Muito se especulou a respeito da nova família de GPUs. Depois que a AMD tomou o reinado da NVIDIA com a até então soberana Radeon HD 7970, o mercado estava ansioso para saber o que a NVIDIA estava planejando. Quando anunciou o desenvolvimento da nova tecnologia Kepler, a ser construída em 28 nanômetros, muitos duvidaram que ela seria capaz de desbancar a concorrente.
Agora que ela chegou, os testes demonstram que ela veio não só para ser mais rápida: a nova arquitetura trouxe agradáveis novidades para o mundo dos aceleradores gráficos. Um menor consumo de energia aliado a novas tecnologias incluídas na nova arquitetura, como o GPU Boost, o sistema de destruição dinâmico, o Adaptive Vsync e o novo TXAA, certamente irão sacudir o universo dos games.
Se você se interessou, já é possível fazer a pré-venda de uma placa dessas na Kabum pelo preço de R$ 2.299,90. A data de envio está marcada para o próximo dia 28 de março.


Leia mais em: http://www.tecmundo.com.br/placa-de-video/21070-geforce-gtx-680-a-placa-de-video-mais-rapida-do-mundo.htm#ixzz1pyXuOWFL

6 sites para assustar você.

 (Fonte da imagem: Reprodução/Morte Súbita)
Com raras exceções, há poucas pessoas no mundo que não possuam alguma atração por assuntos que envolvam o desconhecido, tragédias humanas ou imagens bizarras. Claro, não é sempre que um assunto assustador é bem-vindo, mas, contanto que seja de forma controlada, é até saudável se assustar de vez em quando.
E qual lugar melhor que a internet para dar vazão a esse desejo? Basta realizar uma simples busca no Google para revelar milhares (e às vezes até mesmo milhões, dependendo do idioma utilizado) de páginas feitas por pessoas que dedicam seu tempo a explorar o lado mais sombrio da existência.
Neste artigo, reunimos alguns exemplos dos melhores sites em que você pode encontrar grandes doses de tragédias, destruição, sangue e assuntos bizarros. Muitos deles envolvem imagens consideradas bastante fortes e nenhum é recomendado para quem sofre com problemas do coração ou tem o estômago fraco.

Morte Súbita

A descrição que os administradores do site Morte Súbita fazem sobre o endereço já é suficiente para justificar uma visita. Segundo eles, o local é “uma agência de blasfêmias e um santuário de heresias que visa explorar realidades alternativas e dar suporte a minorias conceituais”.
  
(Fonte da imagem: Reprodução/Morte Súbita)
Na prática, eles se dedicam a publicar artigos envolvendo qualquer espécie de conteúdo polêmico ou que já tenha sido proibido por alguma pessoa ou entidade. É possível perder várias horas do dia lendo textos interessantes que envolvem temas como ocultismo, vampiros, seitas secretas e alienígenas.
O que mais se destaca no site é a seriedade como a maioria dos temas é tratada. Em vez de apelar simplesmente para o senso comum, os membros do site procuram fontes históricas e tratam temas polêmicos com uma visão que, se não totalmente imparcial, ao menos não se mostra preconceituosa ou evangelizadora. Tudo isso faz com que o Morte Súbita seja uma parada obrigatória para qualquer fã de assuntos considerados controversos.

Assustador

Um verdadeiro clássico da internet brasileira, há mais de 10 anos o Assustador se dedica a suprir os desejos de quem gosta de ler sobre temas que envolvem assassinatos violentos, alienígenas, doenças e desastres. Como o próprio nome do endereço já deixa claro, a intenção de todo o seu conteúdo é simplesmente provocar medo e apreensão entre os visitantes.
  
(Fonte da imagem: Reprodução/Assustador)
O que se destaca aqui é a grande seleção de imagens, especialmente aquelas relacionadas a mortes violentas. Embora grande parte delas não seja muito diferente do que vemos em um jornal diário, muitas são capazes de provocar sensações ruins nos mais fracos (o que as torna perfeitas para assustar um irmão ou primo mais jovem).
O triste é perceber que o site simplesmente parou no tempo, algo que fica evidente principalmente devido a seu design antiquado. Além disso, a frequência com que novas atualizações são feitas é bastante baixa — no momento em que este artigo foi escrito, a última novidade havia sido publicada em 28 de dezembro de 2011.

PlaneCrashInfo.com

O PlaneCrashInfo.com é uma página inteiramente dedicada a falar sobre tragédias envolvendo aviões. Portanto, caso você seja daqueles que precisa tomar um sedativo antes de embarcar em uma viagem, a leitura dos artigos disponíveis no endereço não é nada recomendada.
  
(Fonte da imagem: Reprodução/PlaneCrashInfo.com)
Além de publicar informações sobre os modelos das aeronaves, quantidade de pessoas a bordo e número de fatalidades, o site conta com uma seção que serve como um verdadeiro mural de fotos desse tipo de acidente. Para completar, é possível conferir um ranking das 100 piores tragédias aéreas da história da humanidade.

Sobrenatural.org

Conforme o nome já deixa claro, o assunto do Sobrenatural.org são todas as manifestações que fogem ao que consideramos como normal. Fantasmas, espíritos, assombrações — seja qual for a forma como você denomina esse tipo de manifestação, o endereço é um
prato-cheio para quem gosta do assunto.
  
(Fonte da imagem: Reprodução/Sobrenatural.org)
A página também se dedica a vários outros temas, incluindo coisas tão distantes entre si quanto gigantes, budismo e o Triângulo das Bermudas. O que mais surpreende é a imensa quantidade de conteúdo, que é produzido tanto pelos profissionais do site quanto por seus visitantes — somente na parte de conteúdos aguardando liberação, há mais de 7,9 mil artigos.

About.com Urban Legends

Parte do site About.com, o Urban Legends tem como principal objetivo esclarecer a verdade em relação a lendas urbanas comuns. Embora a maioria dos textos seja pautada pela objetividade, em alguns casos é possível se divertir bastante com as histórias e perguntas enviadas pelos leitores.
  
(Fonte da imagem: Reprodução/About.com Urban Legends)
O que se destaca na página é grande variedade de divisões existentes, que abrangem temas que vão de celebridades até histórias de acampamentos. Não deixe de conferir a seção que reúne os artigos mais populares do site, que constitui uma parada obrigatória para entender os motivos para a sua existência. Muitas vezes, os esclarecimentos feitos pela equipe de redatores são mais interessantes que os contos bizarros que povoam o site.

Horrorfind.com

O Horrorfind.com é dedicado a qualquer assunto que provoque medo nas pessoas, sejam histórias supostamente reais ou filmes cujo objetivo é assustar quem assiste a eles. A página serve como um imenso catálogo de links úteis, e basta navegar pelas categorias listadas para acessar rapidamente uma quantidade bastante variada de conteúdo.
  
(Fonte da imagem: Reprodução/Horrorfind.com)
Vale notar que, devido à grande quantidade de temas abrangidos e à idade avançada do endereço, muitas das ligações disponíveis simplesmente redirecionam para páginas com mensagens de erro. Mesmo que isso gere um pouco de dor de cabeça, o site continua sendo uma bela forma de descobrir itens que nem sempre conseguem a atenção que merecem na internet.


Leia mais em: http://www.tecmundo.com.br/internet/20896-6-sites-assustadores-para-fas-de-tragedias-destruicao-e-temas-macabros.htm#ixzz1py4ezrlB

Veja 6 experimentos bizarros da ciência.

A imagem de cientistas malucos sempre foi explorada pela literatura e pela indústria cinematográfica. Alguns desses personagens são apenas excêntricos e, mesmo com todas as suas manias e atitudes incomuns, acabam surpreendendo a todos de uma maneira positiva. É o caso do jovem Dexter, por exemplo, para o qual já dedicamos um infográfico.
Mas outros costumam ter um lado sombrio, capaz de criar verdadeiras atrocidades. Os profissionais da lista abaixo, talvez não apresentem má índole, mas os métodos que usaram para provar suas teorias e realizar suas conquistas parecem ter saído das mais fantasiosas páginas da ficção. Sendo assim, conheça os seis experimentos científicos mais assustadores da história.

1. Executado pela justiça e pela ciência

 
John W. Deering e a prisão onde foi executado a tiros
John W. Deering foi morto em 1938, durante um experimento científico. Mas calma: não aconteceu uma explosão por acidente. O caso é que Deering já havia sido condenado à morte por ter assassinado um homem durante um assalto e, sendo assim, concordou com a ideia de que médicos monitorassem seus batimentos cardíacos enquanto ele seria executado a tiros.
Sendo assim, em 30 de outubro de 1938, o condenado fez a sua última refeição e, na manhã seguinte (31), seguiu para cumprir a sua pena. Depois de ter os sensores de eletrocardiograma posicionados em seu pulso, Deering foi alvejado pelos tiros de cinco atiradores pagos pelo município de Salt Lake City. O exame registrou um espasmo de 4 segundos no coração do preso. Um tempo depois, o coração teve outro espasmo. E o ritmo foi diminuindo gradualmente, até parar completamente em 15,6 segundos depois de a vítima ter sido baleada.
De acordo com os médicos que conduziram o experimento, os resultados poderiam ser úteis para especialistas em doenças do coração, já que mostrava claramente o efeito do medo sobre o ser humano. Apenas por curiosidade, os batimentos cardíacos de Deering foram de 72 bpm para 180 bpm quando ele foi amarrado à cadeira de execução. Apesar da calma aparente do condenado, a média de batidas por minuto continuou alta até o fim do experimento.

2. A safadeza dos perus

 
Perus se sentem mais atraídos por uma cabeça sem corpo do que o contrário 
(Fonte da imagem: Wikimedia Commons)
Martin Schein e Edgar Hale, ambos da Universidade da Pensilvânia, ficaram intrigados com uma questão muito pertinente e que não podia ficar sem resposta: qual seria o mínimo estímulo necessário para excitar um peru a ponto de ele tentar copular? E antes que você pense besteira, é bom esclarecer: estamos mesmo falando da ave, aquela que faz “gluglu” e termina, inevitavelmente, servida como prato na ceia de fim de ano.
Tão surpreendente quanto a dúvida dos cientistas foi o resultado por eles encontrado. Usando o modelo realista de uma perua, os pesquisadores foram removendo partes de seu corpo aos poucos. Mesmo sem asas, pés e cauda, o modelo continuou sendo atraente para a ave, que tentou copular mesmo assim.
Não contentes, Schein e Hale foram além: colocaram apenas a cabeça da perua em um palito de madeira e, mesmo assim, o peru demonstrou um grande interesse por aquilo. Na verdade, o estudo concluiu que a ave prefere a cabeça no palito a um corpo sem cabeça. Agora, tente não pensar nisso no próximo Natal.

3. O terrível cão de duas cabeças

 
Vladimir Demikhov enxertou uma segunda cabeça em um pastor alemão 
(Fonte da imagem: Life)
Em 1954, Vladimir Demikhov chocou o mundo ao apresentar o resultado de seu experimento: um cachorro com duas cabeças, criado cirurgicamente. Mas a monstruosidade não para por aí. O cientista não implantou apenas a cabeça, mas toda a região dianteira de um filhote no pescoço de um pastor alemão já adulto. Os jornalistas quase não conseguiam acreditar no que estavam vendo, principalmente quando os duas cabeças começaram a beber leite simultaneamente.
A União Soviética bradava o feito de Demikhov como prova da superioridade de seus médicos e, durante 15 anos, o russo criou 20 cães de duas cabeças, sendo que nenhum viveu durante muito tempo. O recorde de vida foi de um mês, já que havia uma rejeição muito grande do tecido enxertado.
Mas Demikhov não realizava esses procedimentos por sadismo. O médico foi o pioneiro nos estudos de transplantes de órgãos vitais e desejava, um dia, realizar o transplante de coração e pulmão em seres humanos. Mas quem acabou transplantando o primeiro coração humano, em 1967, foi o sul-africano Christian Barnard, que chegou a visitar o laboratório do soviético duas vezes e considerava Demikhov como um professor.

4. Transplante de cabeça de macaco

 
O americano Robert White transplantou a cabeça de um macaco para outro corpo 
(Fonte da imagem: Vice)
Como era de se esperar, o feito de Vladimir Demikhov acabou irritando outra superpotência da época, os Estados Unidos. Por isso, na tentativa de mostrar que os seus cirurgiões eram melhores, o governo americano financiou Robert White em uma série de cirurgias experimentais que resultaram no primeiro transplante de cabeça de macaco do mundo, em 14 de março de 1970.
White e seus assistente levaram horas para realizar a cirurgia, que exigia até mesmo alguns movimentos coreografados para que pudesse ser realizada com sucesso. E eles conseguiram: removeram a cabeça de um macaco e a implantaram em um novo corpo. Quando o macaco acordou no novo corpo, ele começou a seguir o cirurgião com os olhos e a demonstrar raiva, deixando claro que não gostou do que tinha acontecido. Infelizmente, a cobaia sobreviveu por apenas um dia e meio, vindo a falecer por razões de complicações cirúrgicas.
Diferentemente do que aconteceu com Demikhov, Robert White não foi tratado como um herói pelo povo americano. A opinião pública, amedrontada pelo  experimento, condenou veemente o feito de White. Mas isso não impediu o doutor de continuar com seus estudos, chegando a sugerir a realização do mesmo experimento com cabeças de seres humanos que, pelo bem ou pelo mal, nunca chegou a acontecer. O cirurgião faleceu em setembro de 2010.

5. Eletrificação de corpos humanos

 
As experiências de Aldini podem ter servido de inspiração para o romance Frankenstein (Fonte da imagem: D. Reality)
Em 1780, o professor de anatomia Luigi Galvani descobriu que um pouco de eletricidade fazia com que os membros de um sapo morto se contorcessem. Depois disso, outros cientistas europeus decidiram replicar o experimento. Não demorou muito até que resolvessem partir para algo um pouco mais assustador: aplicar choques em cadáveres de seres humanos.
Foi quando Giovani Aldini, neto do professor Galvani, saiu em turnê pela Europa apresentando um dos espetáculos mais esquisitos a que o mundo já assistiu. O ápice de suas apresentações aconteceu em 1803, quando ele aplicou os polos de uma bateria de 120 volts ao corpo de um assassino que havia sido executado.
Quando Aldini encostou os fios elétricos na boca e em uma das orelhas do cadáver, os músculos da mandíbula do morto se estremeceram e era como se o ex-assassino estivesse enfrentando uma grande dor. O olho esquerdo chegou a se abrir, como se estivesse encarando o seu torturador. Para terminar com chave de ouro, Aldini posicionou os fios na orelha e no reto do homem morto, fazendo com que o cadáver todo se sacudisse, como se estivesse voltando à vida.
Acredita-se que foi uma dessas experiências que influenciou Mary Shelley a escrever “Frankenstein”, romance de 1816 que se tornou um dos livros mais famosos do mundo.

6. Experimentando vômito em nome da ciência

Durante o início do século XIX, o Dr. Stubbins Ffirth resolveu ir um pouco longe demais para provar a sua teoria. Ao notar que a febre amarela era muito comum no verão e desaparecia no inverno, Ffirth concluiu que a doença não era contagiosa e que, em vez disso, ela era causada por uma série de fatores estimulantes.
Para provar que estava certo, o médico da Pensilvânia precisava se expor o máximo possível à febre amarela e mostrar que não havia sido infectado. Por isso, Ffirth fez pequenos cortes em seu braço e derramou, sobre eles, o vômito com sangue dos enfermos. Resultado: ele não ficou doente.
Posteriormente, Ffirth também pingou gotas do característico vômito da doença em seus próprios olhos, além de ter inalado o vapor gerado ao ferver um pouco da mesma substância. Como se não bastasse, o cientista kamikaze também bebeu copos de vômito e, mesmo assim, não contraiu a doença.
Como continuou saudável, o médico concluiu que a doença não era contagiosa e, infelizmente, Ffirth estava errado. A febre amarela é sim contagiosa, mas precisa ser transmitida diretamente na corrente sanguínea da vítima para infectá-la, o que normalmente acontece pela ação de mosquitos. Mesmo assim, levando em consideração tudo o que médico americano fez para se infectar, foi um verdadeiro milagre ele ter sobrevivido.
E você? Iria tão longe assim para provar que estava certo? 


Leia mais em: http://www.tecmundo.com.br/bizarro/17845-os-6-experimentos-cientificos-mais-assustadores-da-historia.htm#ixzz1pxa7U1Gp