domingo, 7 de outubro de 2012

Medicina e Tecnologia, parceria Promissora.

Medicina e tecnologia vão convergir em 5 áreas 








Os avanços tecnológicos aplicados na área da saúde – do atendimento inicial, como a telemedicina, até os robôs cirurgiões – estão rapidamente se tornando comuns em muitos hospitais. Um estudo feito pelo professor Atam Dhawan, do instituto de tecnologia de Nova Jérsei, nos Estados Unidos, especialmente para uma conferência sobre engenharia, medicina e biologia, que se realizará em Boston, em agosto, teve como tema os benefícios que a tecnologia trará a medicina.

“Nosso objetivo é investigar quais as tecnologias de engenharia biológica e biomédica que tendem a se tornar importantes na próxima década, “afirmou Dhawan. “Um amanhã mais saudável consiste em avanços que vão desde biomarcadores para o diagnóstico precoce e o monitoramento de doenças, até a engenharia de sistemas neurais.”

Foram identificadas cinco novas “áreas quentes” no campo da bioengenharia. Segundo Dhawan, é aí que a medicina e a eletrônica irão se unir e exercer o maior impacto sobre a vida das pessoas.

Tecnologias para o atendimento médico: Todas as soluções de atendimento médico dependenrão da conexão entre pacientes e os profissionais de saúde através dos computadores. O sistema  Naja RIS, apresenta essa característica de informatizar a clínica junto aos seus pacientes, entre outras soluções que um software pode oferecer.





Bioeletrônica: É a tecnologia de bio-nano-sensores (sensores contruídos com nanotecnologia, usando materias biológicos) e na engenharia neural. São dispositivos de interface com tecidos neurais.






Engenharia de tecidos: Medicina regenerativa, considerada por muitos médicos como umas das grandes tecnologias no meio da saúde, devido a terapias baseadas em células-tronco.









Imageamento óptico: As tecnologias baseadas em imagens ópticas serão cada vez mais utilizadas para o diagnóstico e para o acompanhamento do câncer, das doenças cardiovasculares e outras doenças fibróticas.









Bio-robôs: “As aplicações clínicas, terapêuticas e cirúrgicas dos robôs médicos com instrumentação avançada, sensores, atuadores e sistemas de tempo real podem ter um impacto revolucionário na medicina e no cuidado da saúde”, afirmou Dhawan.




Desafios, riscos e ética da nanotecnologia


Fonte: http://ciencia.hsw.uol.com.br/nanotecnologia5.htm

O desafio mais imediato na nanotecnologia é que nós precisamos aprender mais sobre materiais e suas propriedades na nanoescala. Universidades e corporações de todo o mundo estão estudando rigorosamente como os átomos se encaixam para formar grandes estruturas. Nós ainda estamos aprendendo como a mecânica quântica impacta as substâncias à nanoescala.
Nanotecnologia
Como os elementos em nanoescala se comportam de maneira diferente do que eles fariam em sua forma principal, há uma preocupação de que algumas nanopartículas possam ser tóxicas. Alguns médicos temem que, por serem tão pequenas, as nanopartículas possam facilmente atravessar a barreira sangue-cérebro, uma membrana que protege o cérebro de componentes nocivos lançados na corrente sanguínea. Se planejamos usar nanopartículas para revestir tudo - de nossas roupas a rodovias, precisamos ter certeza de que elas não vão nos envenenar. Fortemente relacionada à barreira do conhecimento está a barreira técnica. Para que as incríveis previsões sobre a nanotecnologia se tornem realidade, temos de encontrar formas de produzir em massa produtos de tamanho nanométrico como transistores e nanofios. Embora possamos usar nanopartículas para fazer coisas como raquetes de tênis e tecidos que não amassam, ainda não podemos fazer chips para microprocessadores realmente complexos com nanofios.
Grude apocalíptico
Eric Drexler, o homem que introduziu a palavra nanotecnologia, apresentou uma visão apocalíptica - o mal funcionamento de nanorrobôs autorreplicadores, duplicando a si mesmos um trilhão de vezes mais, rapidamente consumindo o mundo inteiro à medida que eles tiram carbono do ambiente para construir mais de si mesmos. Isso é chamado de  cenário "gray goo" , em que um dispositivo sintético de tamanho nanométrico substitui todo o material orgânico do planeta. Outro cenário envolve nanodispositivos feitos de material orgâncio, varrendo a Terra do mapa - o cenário "green goo".
Existem algumas preocupações sociais pesadas sobre nanotecnologia também. A nanotecnologia também pode permitir que criemos armas mais poderosas, letais e não letais. Algumas organizações estão preocupadas que nós consigamos apenas examinar as implicações éticas da nanotecnologia nos armamentos depois que esses dispositivos estiverem construídos. Elas encorajam cientistas e políticos a examinar cuidadosamente todas as possibilidades da nanotecnologia antes de se projetarem armas progressivamente poderosas. Se a nanotecnologia na medicina possibilitar que nos melhoremos fisicamente, isso é ético. Na teoria, a nanotecnologia médica poderia nos tornar mais inteligentes, mais fortes e nos dar outras possibilidades que variam de uma cura rápida à visão noturna. Devemos perseguir esses objetivos? Podemos continuar nos chamando de humanos, ou nos transformaríamos em trans-humanos - o próximo passo no caminho evolutivo do homem? Já que quase toda tecnologia começa sendo muito cara, isso  quer dizer que estaríamos criando duas raças de pessoas - uma raça abastada de humanos modificados e uma população mais pobre de pessoas inalteradas? Nós não temos respostas para essas perguntas, mas várias organizações estão encorajando os nanocientistas a considerar essas implicações agora, antes que seja muito tarde.
Nem todas as questões envolvem a alteração do corpo humano - algumas lidam com o mundo das finanças e da economia.  Se a fabricação molecular se tornar uma realidade, como ela vai impactar o mundo da economia? Assumindo que possamos construir qualquer coisa de que precisemos com o clique de um botão, o que acontece com todos os empregos industriais? Se podemos criar qualquer coisa usando um replicador, o que acontece com a moeda? Devemos mudar para uma economia completamente eletrônica? Nós ainda precisaríamos de dinheiro?
Se nós, na verdade, vamos precisar responder a todas essas questões é uma questão em debate. Muitos especialistas acham que preocupações como grey goo e trans-humanos são muito prematuras, e provavelmente desnecessárias. Mesmo assim, a nanotecnologia vai continuar, definitivamente, a nos impactar à medida que aprendermos mais sobre o enorme potencial da nanoescala.

O Vento Solar


Fonte:  http://bussoladeplasma.wordpress.com/2012/06/10/o-vento-solar/

10 de junho de 2012 
O Gráfico abaixo mostra a valocidade do Vento Solar em tempo real…

O Vento Solar foi inicialmente estudado para explicar as auroras (perturbação geomagnética), e a inclinação das caudas dos cometas, e foi observado pela primeira vez pela espaçonave Russa Luna 2 em 1959 e Explorer 10 em 1961. O vento solar é um gás coronal ejetado do Sol.
O plasma da coroa solar é tão quente que a gravidade do Sol não pode segurá-lo por muito tempo. Em vez disso, as franjas superiores fluem em todas as direções, em um fluxo constante de partículas conhecidas como Vento Solar. Movendo-se a cerca de 400 km/s em média, o vento solar pode atingir a Terra de 3 a 4  dias. O vento solar consiste em partículas ionizadas e campos  magnéticos produzindo tempestades magnéticas na magnetosfera da Terra .
O sol está jogando 1 milhão de toneladas de matéria para o espaço em todas as direções a cada segundo na forma de um fluxo de partículas carregadas eletricamente.
O Vento solar exerce uma pressão sobre o campo magnético terrestre comprimindo-o e criando uma longa cauda do lado oposto. Esta “capa” magnética e complexa é conhecido como Magnetosfera. Quando as partículas provenientes do Sol (elétrons e prótons) impactam a Magnetosfera, geram correntes elétricas e plasmas na camadamais exterior da atmosfera terrestre, a Ionosfera, provocando as Auroras Boreais e Austrais por excitação dos átomos de gás.
 
Efeitos das tempestades solares:
  • A aurora boreal(as luzes do norte) e aurora austral (as luzes do sul).
  • Interferência em rádios e televisões.
  • Perigo para astronautas e naves espaciais.
  • Oscilações de correntes nas usinas de força, prejudicando o fornecimento de energoa elétrica.
  • Sistemas de navegação.
  • Satélites dependendo da sua altitude, os componentes eletrônicos, as baterias solares  podem ser danifcados. O clima espacial afeta os satélites em missões de diversas formas, dependendo da órbita e da função do satélite.
  • Muitos sistemas de comunicação utilizam a ionosfera para refletir sinais de rádio a longas distâncias. Tempestades ionosféricas podem afetar a comunicação por rádio em todas as latitudes.

Física das Partículas e teoria quantica

A Era da Incerteza

Equação da física de partículas, parte da teoria quântica: novas visões de mundo. Foto: Ria Novosti/Science Photo Library/ Stock Photos
Equação da física de partículas, parte da  teoria quântica: novas visões de mundo.
O início do século 20 foi marcado por duas revoluções científicas: a teoria da relatividade de Albert Einstein (1858-1947) e a mêcanica quântica de Max Planck (1879-1955). Ambas obrigaram a humanidade a rever doutrinas e tiveram aplicações nas mais diversas áreas, da filosofia à indústria bélica. A teoria quântica, por exemplo, derrubou certezas da Física e as substituiu pela noção de probabilidade. A relatividade pôs em questão os conceitos de espaço e tempo. Para completar, na termodinâmica, Niels Bohr (1885-1962) chegou à necessidade de tratar as partículas físicas tanto como corpúsculos quanto como ondas. Quando tudo parecia incerto e relativo, a teoria do caos, já na segunda metade do século, veio, de certa forma, na direção oposta, ao demonstrar que também nos sistemas caóticos existe ordem. Essas e outras reformulações do conhecimento humano levaram Morin a definir sete "princípios-guia" da complexidade, interdependentes e complementares. São eles os princípios sistêmico (o todo é mais do que a soma das partes), hologramático (o todo está em cada parte), do ciclo retroativo (a causa age sobre o efeito e vice-versa), do ciclo recorrente (produtos também originam aquilo que os produz), da auto-eco-organização (o homem se recria em trocas com o ambiente), dialógico (associação de noções contraditórias) e de reintrodução do conhecido em todo conhecimento.

Para pensar

Na opinião de Edgar Morin, cabe aos professores do Ensino Fundamental começar a derrubar as barreiras entre os conhecimentos, por duas razões principais: eles têm a experiência generalista (pelo menos os que trabalham nas séries iniciais) e lidam com as crianças mais novas, que guardam uma curiosidade e um modo de pensar ainda não influenciados pela separação dos conteúdos em disciplinas. Você, como professor, se dá a liberdade de preparar aulas sem necessariamente parcelar o horário em períodos estanques?
Quer saber mais?
A Cabeça Bem-Feita, Edgar Morin, 128 págs., Bertrand Brasil, tel. (21) 2585-2000.
A Religação dos Saberes, Edgar Morin, 588 págs., Ed. Bertrand Brasil, tel. (21) 2585-2000.
Edgar Morin - A Educação e a Complexidade do Ser e do Saber, Izabel Cristina Petraglia, 120 págs., Ed. Vozes, tel. (24) 2246-5552.
Os Sete Saberes Necessários à Educação do Futuro, Edgar Morin, 118 págs., Ed. Cortez, .

sexta-feira, 21 de setembro de 2012

Radiação em Hirosihima



INCLUSÃO

Fonte: http://planetasustentavel.abril.com.br/noticia/educacao/conteudo_244926.shtml

Falta cultura digital na sala de aula

Especialista em Mídia e Educação da Universidade Católica de Milão diz que a tecnologia e seu conteúdo devem fazer parte do dia-a-dia escolar

-  A  A  +
Por Débora Didonê
Revista Nova Escola - 03/2007
O Brasil ainda engatinha quando se fala em inclusão digital nas escolas públicas. Até o ano passado, das 143 mil instituições de Ensino Fundamental do país, cerca de 17 mil contavam com laboratórios de informática, segundo dados do Ministério da Educação (MEC). Porém cresce nas faculdades de Educação a preocupação em formar profissionais preparados para lidar teoricamente com a linguagem das novas mídias e seu significado nas salas de aula. É para apoiar projetos como esse que o filósofo italiano Pier Cesare Rivoltella, especialista em Mídia e Educação da Universidade Católica de Milão, na Itália, visita o Brasil com freqüência. Ele orienta pesquisas sobre a relação entre jovens e internet do Grupo de Pesquisa Educação e Mídia da Pontifícia Universidade Católica do Rio de Janeiro (PUC-RJ), onde também dá aulas sobre Mídia e Educação, e acompanha pesquisas de mestrado na Universidade Federal de Santa Catarina.
Para Rivoltella, os meios de comunicação dão impulso à inovação do ensino. "É a troca da abordagem tradicional - baseada na fala do professor à frente da sala de aula - pelo uso de mídias que favoreçam o trabalho em grupo mais ativo, dinâmico e criativo em todas as disciplinas." O especialista, que também forma docentes da rede pública italiana, ainda sente uma certa resistência cultural quando se fala em tecnologia na sala de aula. "Os professores não são formados para lidar com elas", afirma. No Brasil, o cenário não é muito diferente. "As experiências, geralmente, são voltadas para o conhecimento técnico dos meios de comunicação, não o crítico."
NOVA ESCOLA - Como os jovens se relacionam com as novas tecnologias?RIVOLTELLA - Uma das maiores características desse público é o que chamamos de uma disposição multitarefa. Ele responde às mensagens do celular, ouve música no iPod, vê TV e fala com os amigos no Messenger - tudo ao mesmo tempo. Da mesma forma, ele sabe que acessar a internet pelo computador de casa ou pelo telefone celular é muito diferente. O computador, geralmente, é de toda a família e fica na sala. O celular é pessoal. Além disso, o jovem de hoje reconhece as especificidades de cada tecnologia e se adapta a elas. Ele pode sair pela cidade enquanto olha a tela do celular - o que é impossível na frente da tela de um computador. Fazer tudo isso simultaneamente é uma característica típica das novas gerações. Por um lado, isso lhes confere uma elaboração cognitiva muito rápida. Por outro, acaba deixando-os na superficialidade, pois não dá tempo de se aprofundar nos assuntos.
Como as escolas se relacionam com esses jovens?
Mal, muito mal. Hoje, as novas gerações estão completamente ligadas à tecnologia e aos meios de comunicação. Elas fazem parte de uma cidade que não é só real mas também digital. E nesse espaço você não é brasileiro nem italiano. Os jovens de hoje são criados numa sociedade digital. Por isso, educar para os meios de comunicação é educar para a cidadania. Daí vem a urgência de a escola se integrar a essa realidade.
O que significa dizer que a mídia deve fazer parte do cotidiano da escola?
Que ela deve permear os processos de ensino e aprendizagem, como acontece com a escrita. O papel do professor que usa a tecnologia é parecido com o do diretor de um filme. Trata-se de um professor-diretor, que não se limita a falar, mas passa a direcionar o uso dos meios de comunicação pelos alunos.
Qual a melhor forma de levar o tema mídia para a sala de aula?
Como um tema transversal. Alguns pesquisadores defendem a criação de uma disciplina específica, mas já está provado que isso não funciona. Se apenas um professor responde pelo conhecimento da tecnologia e da mídia (como ocorre em muitas escolas que têm salas de informática), os outros tendem a se desinteressar pelo assunto. E, para ser eficaz, esse trabalho precisa ser feito em equipe. O professor de Língua Portuguesa trabalha com a análise do texto e o uso da linguagem na mídia. O de Arte, com a dimensão expressiva dos meios.

Memoria flesh e o Futuro

Eis uma demonstração prática do passo absurdamente rápido em que anda a tecnologia: em janeiro publiquei um texto sobre uma possível substituta para a memória RAM, criada por pesquisadores da Universidade da Carolina do Norte, nos EUA. Agora, pouco mais de um mês depois, outros pesquisadores criaram uma possível substituta para a memória flash, usada em pendrives e celulares, que parece ser ainda mais eficiente e gastar ainda menos energia do que as atuais. Cem vezes menos energia, para ser exato.
Atualmente a memória flash armazena dados na forma de cargas elétricas, mas por ser não-volátil ela não precisa de uma corrente constante de eletricidade e é por isso que dados de um pendrive não se perdem depois que ele é desconectado da porta USB. Uma das desvantagens dela é o número limitado de capacidades de escrita e por isso pesquisadores trabalham há algum tempo em tecnologias para substituí-la com mais eficiência. Em 2004 uma possível substituta foi criada, a phase-change memory.

No lugar de armazenar dados na forma de cargas elétricas, a PCM armazena dados usando as propriedades químicas únicas de um elemento chamado vidro calcogênio, que você já pode ter visto de perto se tiver usado um CD regravável. Ele tem dois estados, cristalino ou sólido amórfico, sendo que cada um deles representa um bit 0 ou 1. Os dados são gravados quando corrente elétrica é aplicada no material, o que gera calor e muda o seu estado. E foi nela que pesquisadores da Universidade de Illinois se basearam para criar a sua.
Nanotubos de carbono | Crédito: Dr. Eric Pop
Eles criaram uma memória com nanotubos de carbono, que é a menor forma de condutor já criada pelo homem, com um bit feito de PCM no meio dele. A corrente passa pelo nanotubo e muda o estado da memória, guardando um bit. Para evitar a deterioração presente nas memórias flash atuais e ainda prolongar o número de reescritas, eles cobriram tudo com uma camada de dióxido de silício. Não é só essa a vantagem: por ter componentes de PCM, os dados também estão protegidos contra imãs. Os pesquisadores criaram uma representação gráfica em 3D de como essa nova memória é feita, que você pode ver abaixo.
Representação gráfica de um pedaço da memória | Crédito: Dr. Eric Pop.
O resultado desse desenvolvimento vai ser visto no futuro, quando ela for implementada em celulares e gadgets que ainda usam memória flash atualmente. Como essa nova memória usa 100 vezes menos energia que a atual, a vida de bateria dos nossos gadgets poderão aumentar drasticamente.
Eu espero ainda estar vivo para poder usar um iPhone (ou smartphone Android) que tenha uma bateria que dura uma semana antes de pedir arrego ou um notebook que pode funcionar por um mês antes de precisar ser ligado na tomada. É pra esse lado que o futuro aponta. E eu mal posso esperar para ele chegar.

Celular em sala de aula!!!

Celular é um aliado em sala de aula?

Fonte: http://www.interdidatica.com.br/blog/index.php/2009/06/10/celular-e-um-aliado-em-sala-de-aula/


O uso de celulares nas escolas tem se tornado cada vez mais comum e evitar essa prática em sala de aula virou um verdadeiro desafio para os professores. Mas ao contrário do que se pensa, é possível transformar esses pequenos aparelhos em grandes aliados do ensino.
Foi o que explicou o professor Rogério da Costa Santos, pesquisador do CNPQ e integrante do grupo de cientistas do projeto Collective Intelligence, dirigido por Pierre Lévy e promovido pela Universidade de Ottawa (Canadá), no 2º Congresso de Tecnologia Educacional Aplicada à Sala de Aula.
Segundo Rogério, a paixão por celulares entre jovens pode contribuir para o benefício do ciclo de ensino e aprendizagem. “O celular teve uma aceitação e disseminação muito rápida e isso facilita ainda mais o processo”, afirmou.
Do ano de 1994 até 2004, houve um avanço nos estudos das redes sociais, com o ápice em 2004, pela popularização do Orkut. “Hoje as redes Orkut, MySpace, Twitter, entre outros, estão cada vez mais presentes na vida de jovens e adultos, contribuindo para a chamada Inteligência Coletiva, onde pessoas se unem para resoluções de problemas comuns”, explicou Rogério.
Um conceito bastante debatido na conferência foi o Mobile Learning (m-learning), que é o uso de dispositivos como laptops, PDAs e celulares em educação à distância, dando a possibilidade do aluno se comunicar com o professor e com os colegas imediatamente.
Rogério Santos também avaliou formas para utilizar o m-learning na realidade brasileira. “O aluno pode trocar mensagens (SMS), consultar o dicionário, criar e consultar glossários, resolver questionários, ouvir as aulas em vídeo e áudio (podcasts) e fazer fotografias”. Ele acredita que essa forma de inteligência coletiva oferece resultados mais concretos e proveitosos do que os mecanismos de busca convencionais, por exemplo.
Na Inglaterra há atualmente mais de 50 iniciativas voltadas para o desenvolvimento de metodologias e aplicações de Mobile Learning. No Brasil são poucas as experiências, dispondo apenas de alguns estudos desenvolvidos por universidades e fundações.
Mas, para Rogério, essa realidade pode ser outra. “Como eu disse anteriormente, um celular possui inúmeros recursos que podem ser úteis na sala de aula, basta saber utilizá-lo de forma que essas possibilidades sejam bem aproveitadas”, finalizou.

Tecnologia e educação - parte I

Macedo quer disciplinar uso de celular em salas de aula
Projeto quer disciplinar o uso de aparelhos eletrônicos em sala de aula (arte: Vilhena)

O uso de aparelhos eletrônicos em salas de aula de estabelecimentos de educação básica e superior poderá ser proibido em todo o País.

Fonte: http://www.pt.org.br/secretaria_noticias/view/macedo_quer_disciplinar_uso_de_celular_em_salas_de_aula


A restrição é proposta em projeto de lei de autoria do deputado Márcio Macedo (PT-SE), apresentado na quarta-feira (30).
Pelo projeto, a utilização dos aparelhos eletrônicos portáteis - é o caso dos tablet, por exemplo - ficará restrita àqueles inseridos no desenvolvimento de atividades didático-pedagógicos e devidamente autorizados pelos docentes ou corpo gestor.
A ideia de Márcio Macedo não é cercear a liberdade dos estudantes. “A restrição ao uso dos aparelhos visa a preservar a essência do ambiente pedagógico”, explica o deputado.
Para garantir esse ambiente saudável em sala, o petista avalia que a proibição de uso das novas ferramentas tecnológicas - celulares, tablet e notebooks - evitará que o aluno desvie sua atenção do trabalho didático desenvolvido pelo professor.
Da mesma forma que tecnologia se tornou uma aliada dos alunos em algumas tarefas escolares, ela também se mostrou indevida e inadequada em situações específica, em que esses aparelhos eletrônicos passaram a comprometer a aprendizagem. “Para evitar mais prejuízos, apresentei o projeto disciplinando o uso de aparelhos eletrônicos em sala de aula e espero contar com o apoio de todos os colegas deputados”, esclarece.
(Liderança do PT na Câmara)

Fenomenos Elétricos e a Nanotecnologia


Descoberto novo fenômeno elétrico em nanoescala


Cientistas da Universidade de Michigan, nos Estados Unidos, descobriram que, na escala da nanotecnologia, os fenômenos elétricos mostram comportamentos diferentes, com possibilidade de exploração tecnológica imediata.
Ruptura dielétrica
No mundo em macroescala, os materiais chamados condutores elétricos efetivamente transmitem eletricidade.
Já os materiais chamados isolantes, ou dielétricos, não conduzem eletricidade - a não ser que sejam submetidos a uma tensão extremamente alta, a chamada tensão de ruptura dielétrica.
O problema é que, como acontece quando um raio cai em uma árvore - a madeira é um isolante - o rompimento do dielétrico danifica irreversivelmente o material por onde a eletricidade finalmente passa na base da força bruta.
Barreira dielétrica
A equipe do professor Alan Hunt demonstrou que, em nanoescala, ruptura dielétrica não causa danos ao material.
Uma minúscula fita de vidro mantém totalmente a sua integridade estrutural mesmo depois que a tensão elétrica é elevada a um nível suficiente para forçar que a corrente a atravesse.
"Este é um fenômeno novo, um fenômeno físico verdadeiramente em nanoescala," disse Hunt. "Em escalas maiores ele não funciona. Você só obtém um aquecimento extremo e danos ao material."
Devido às pequenas dimensões dos materiais em nanoescala, não apenas a tensão de ruptura do dielétrico é muito menor do que o material maciço, mas também o calor gerado dissipa-se de forma extraordinariamente rápida, não dando tempo para que o material seja danificado.
Fios de vidro líquido
Devido ao seu comportamento inusitado, os pesquisadores chamaram as fitas de vidro de eletrodos de vidro líquido.
As fitas de vidro líquido podem ser a melhor solução para a integração de funcionalidades eletrônicas aos biochips e microarrays, minúsculos laboratórios ultracompactos, não maiores do que um chip de computador, capazes de fazer em instantes análises clínicas que hoje levam horas ou dias.
A maioria desses microlaboratórios precisa de uma fonte de energia para funcionar e para alimentar seus sensores. Inserir fios em dispositivos desse tamanho, contudo, torna sua fabricação muito mais cara e complicada.
A substituição dos fios por segmentos específicos de vidro, o mesmo material do restante do biochip, pode ser um grande facilitador.
"O projeto dos dispositivos microfluídicos é limitado por causa do problema de energia," disse Hunt. "Agora nós podemos construir os eletrodos diretamente no dispositivo."
Fluidos iônicos
Para não precisar usar fios para rotear a eletricidade no interior dos biochips, a equipe de Hunt "desenha" microcanais ao longo dos quais fluidos iônicos conduzem a eletricidade no interior do biochip.
Para evitar contaminação, contudo, o líquido iônico não pode entrar em contato com a amostra sendo examinada. Por isso, os canais condutores de energia terminam antes do ponto da medição, sendo separados das amostras biológicas por uma finíssima lâmina de vidro.
Graças ao fenômeno agora descoberto, essa membrana pode ser construída de forma a permitir a transmissão da eletricidade, apresentando uma tensão definida de ruptura dielétrica, eliminando a complicação dos fios de ouro normalmente utilizados e o risco da contaminação.
Como o material em nanoescala não é danificado, o biochip pode ser utilizado inúmeras vezes.
Bibliografia:Liquid glass electrodes for nanofluidicsSanghyun Lee, Ran An, Alan J. HuntNature Nanotechnology16 May 2010Vol.: Published online before printDOI: 10.1038/nnano.2010.81
google_protectAndRun("ads_core.google_render_ad", google_handleError, google_render_ad);
Extraido de :

NANOTECNOLOGIA

Nanotecnologia

O que é a nanotecnologia?

FONTE: http://redes-e-servidores.blogspot.com.br/2011/01/nanotecnologia.html
A nanotecnologia é o estudo da manipulação da matéria em escala atómica e molecular, ou seja, é a engenharia de máquinas minúsculas; a capacidade para construir coisas de baixo para cima, usando técnicas e ferramentas que estão a ser desenvolvidas hoje para fazer produtos completos e altamente avançados.

A fim de compreender o mundo incomum das nanotecnologias, precisamos ter uma ideia das unidades das dimensões envolvidas. Um centímetro é de um centésimo de um metro, um milímetro é um milésimo de um metro, e um micrómetro é um milionésimo de um metro, mas todos estes ainda são enormes em comparação com a escala nanométrica. Um nanometro (nm) é um bilionésimo de um metro, menor do que o comprimento de onda da luz visível e uma centena de milésimo da espessura de um cabelo humano.

Apesar de minúsculo, um nanometro ainda é grande em comparação com a escala atómica. Um átomo tem um diâmetro de cerca de 0,1 nm e o núcleo de um átomo é muito menor - cerca de 0,00001 nm.

nanotecnologia


Em geral, a nanotecnologia lida com estruturas de medidas entre 1 a 100 nanometros, em pelo menos uma dimensão, e envolve o desenvolvimento de materiais ou dispositivos dentro desse tamanho. nessa A esta  escala são muito importantes os efeitos da mecânica quântica visto que estamos de facto no que está no mundo quântico.

História da nanotecnologia


O primeiro uso dos conceitos encontrados em nanotecnologia (mas pré-datando a utilização desse termo) foi durante a palestra “Há espaço de sobra no fundo", proferida pelo físico Richard Feynman no California Institute of Technology (Caltech) em 29 de Dezembro de 1959. Feynman descreveu um processo pelo qual pode ser desenvolvida a capacidade de manipular átomos e moléculas, utilizando um conjunto de ferramentas precisas para construir e operar um outro conjunto proporcionalmente menor, e assim por diante até a escala necessária.
O termo "nanotecnologia" foi cunhado pelo professor Norio Taniguchi da Universidade de Ciência de Tóquio, num artigo de 1974, da seguinte forma: 'Nanotecnologia' consiste principalmente em tratamento de, separação, consolidação e deformação dos materiais por um átomo ou uma molécula "

A idéia básica dessa definição foi popularizada e explorada com mais profundidade nos anos 80, quando K. Eric Drexler promoveu a importância tecnológica dos fenómenos e dispositivos em escala nanometrica através de palestras e dos seus livros Engines of Creation: The Coming Era of Nanotechnology (1986) e Nanosystems: Molecular Machinery, Manufacturing. Ele falou sobre a construção de máquinas na escala das moléculas, alguns nanometros de largura; motores, braços robóticos, e até mesmo computadores inteiros muito menores que uma célula. Drexler passou a maior parte de seu tempo desde então a descrever e analisar esses dispositivos incríveis, e respondendo às acusações de ficção científica.

Aplicações da nanotecnologia


A nanotecnologia é muito diversificada, indo desde a extensão da física de dispositivos convencionais até abordagens completamente novas baseadas em auto-montagem molecular, do desenvolvimento de novos materiais com dimensões na escala nanométrica até à investigação da possibilidade de controlar directamente a matéria em escala atómica.

Há uma convergência multidisciplinar sem precedentes de cientistas dedicados ao estudo de um mundo tão pequeno que não podemos vê-lo. Esse mundo é o campo da nanotecnologia, o reino dos átomos e das nanoestruturas. A nanotecnologia é tão nova que ninguém tem a certeza absoluta daquilo que poderá vir a trazer.

Muitos materiais, uma vez reduzidos individualmente a dimensões menores a 100 nanometros, começam a exibir um conjunto de características únicas baseadas nas forças da mecânica quântica que são típicas dessa escala. Devido a esses efeitos da mecânica quântica, os materiais podem tornar-se mais condutores, ser capazes de transferir melhor o calor, ou ter propriedades mecânicas modificadas.

Futuro da nanotecnologia


Baseada na visão de Feynman de fábricas em miniatura usando nanomáquinas para construir produtos complexos, a nanotecnologia avançada (por vezes referido como manufactura molecular) fará uso da mecanoquímica de controlo posicional guiada por sistemas de máquinas moleculares.


Pouco tempo depois de este sistema de engenharia molecular ser criado, ele irá provocar uma revolução industrial e, provavelmente, causar perturbações graves visto que pode ter graves implicações económicas, sociais, ambientais e militares.

Há muito debate sobre as implicações futuras da nanotecnologia. A nanotecnologia pode ser capaz de criar muitos novos materiais e dispositivos com uma vasta gama de aplicações, tais como medicina, electrónica, biomateriais e produção de energia.

Por outro lado, a nanotecnologia levanta muitos dos mesmos problemas que qualquer nova tecnologia levanta incluindo as preocupações sobre a sua possível toxicidade, os impactos ambientais dos nanomateriais, os seus efeitos potenciais sobre a economia global e até alguma especulação sobre diversos cenários apocalípticos. Estas preocupações levaram a um aceso debate acerca de necessidade de  regulamentação especial da nanotecnologia.

Nanotecnologia e a medicina

Brasil já usa nanotecnologia no desenvolvimento de medicamentos

fonte: http://noticias.uol.com.br/saude/ultimas-noticias/estado/2008/08/21/brasil-ja-usa-nanotecnologia-no-desenvolvimento-de-medicamentos.htm
São Paulo - O Brasil já desenvolve seus primeiros medicamentos com nanotecnologia, uma das abordagens promissoras para a criação de drogas menos tóxicas e mais eficazes. Há 15 anos, surgiram os primeiros grupos de pesquisa no País. Agora, antibióticos, anestésicos e quimioterápicos já são testados. Os progressos na área serão discutidos, hoje e amanhã, durante a 23ª Reunião Anual da Federação de Sociedades de Biologia Experimental (Fesbe), em Águas de Lindóia, a 170 quilômetros de São Paulo.

Nas terapias nanotecnológicas, o princípio ativo - principal substância do remédio - fica envolvido por uma "pequena caixa" - o nanocarreador. É como se o medicamento fosse empacotado para ser entregue no órgão no momento adequado, para aumentar as chances de cura.

A nanotecnologia, ciência que procura manipular a matéria no nível dos átomos e das moléculas, é fundamental para construir os nanocarreadores. Muitas vezes, eles têm um diâmetro inferior a cem nanômetros. Para se ter uma idéia, um nanômetro equivale a milionésima parte de um milímetro. Um cabelo humano tem 100 mil nanômetros de espessura.

Câncer

Crédito
Pacientes com câncer de fígado ou pulmão costumam utilizar um quimioterápico injetável chamado doxorubicina que, ao cair na corrente sanguínea, espalha-se para todo o corpo, prejudicando tecidos sadios. A equipe do pesquisador Anselmo Gomes de Oliveira, da Universidade Estadual Paulista (Unesp), em Araraquara (SP), colocou o remédio dentro de um nanocarreador construído com um nutriente muito consumido pelas células cancerosas.

A maior parte do "alimento envenenado" foi digerida pelas células do tumor, causando sua destruição. A nova técnica diminuiu para um quinto a toxicidade. O primeiro remédio nanotecnológico desenvolvido no Brasil deverá chegar ao mercado no fim de 2009. Será um anestésico desenvolvido pela equipe da pesquisadora Sílvia Guterrez, da Universidade Federal do Rio Grande do Sul. As informações são do jornal O Estado de S.Paulo.
AE

A era do Carbono

Adeus silício, bem-vindo carbono (parte 1)

Fonte: http://blogs.forumpcs.com.br/cat/2010/04/19/adeus-silicio-bem-vindo-carbono/

Postado as 05:25 - 19/04/2010 - Por Carlos Alberto Teixeira. Categorias: Computadores, Processadores, Servidores.
-2votos  
Aqui está ele, o silício, fundamento da indústria eletrônica digital tal como a conhecemos hoje. Sua hegemonia nesse setor, porém, parece estar com seus dias contados.Aqui está ele, o silício, fundamento da indústria eletrônica digital tal como a conhecemos hoje. Sua hegemonia nesse setor, porém, parece estar com seus dias contados.
Quase toda essa fascinante tecnologia eletrônica e computacional que nos cerca baseia-se num elemento químico tão abundante na Natureza que mal nos damos conta de sua importância — o silício. Foi descoberto em 1787 por Lavoisier como componente da pedra sílex, aquela que o homem das cavernas usava para produzir fogo, esfregando uma na outra e produzindo fagulhas que incendiavam galhos e capim secos.
Silício é do que é feita a areia, e é usado também para fabricar vidro. Este elemento, aliás, tem sido o grande vilão da aviação comercial na Europa nos últimos dias, pois é o principal constituinte da poeira expelida pelo vulcão islandês Eyjafjallajökull (nome medonho que, segundo um amigo meu islandês, pronuncia-se “êia-fiátla-iêkutl”), cujo silício pode entrar nas turbinas de uma aeronave, derreter e destruir os mecanismos, depositando no metal uma fina camada parecida com vidro.
No caso da eletrônica, a principal aplicação do silício é na fabricação de semicondutor es, materiais que têm um comportamento entre o condutor e o isolante. Para produzi-los, pega-se o silício puro e introduz-se nele átomos de impurezas, num processo conhecido como ” dopagem “. Esses átomos intrusos podem ser de elementos como arsênio, boro, fósforo e gálio, entre outros.
Esse controle sobre a condutividade do silício dopado é necessário para produzir componentes de suma importância na indústria eletrônica, tais como transistores, circuitos integrados, células solares, microprocessadores e outras peças de alta tecnologia. Um ramo tecnológico chamado “fotônica de silício”, por exemplo, dedica-se a produzir guias de onda capazes de conduzir luz coerente ao longo de circuitos — um processo denominado ” laser Raman “. Outra aplicação do silício é em sua forma hidrogenada amorfa (sem forma), na produção de aplicações eletrônicas de baixo custo e grande área, como telas LCD e células solares de filme fino.
Estrutura do silício hidrogenado amorfo. Estrutura do silício hidrogenado amorfo.
O que vemos, então, na atualidade, é que o silício é o rei da cocada preta , quando o assunto é eletrônica digital. Contudo, correndo por fora, vem despontando um outro elemento químico que é uma grande promessa como substituto do silício nesse campo — o carbono. Mas, espera aí. Para quê precisamos de um substituto? Resposta: estamos chegando perto do limite físico do silício, que cada vez mais estamos forçando com a miniaturização dos circuitos, o afinamento das trilhas condutoras dentro dos chips e a demanda por menor consumo elétrico. Em suma, nossa ganância tecnológica está aos poucos aposentando o bom e velho silício.
E este é o carbono, apresentado aqui em uma de suas estruturas mais comumente encontradas na Natureza — o grafite. E este é o carbono, apresentado aqui em uma de suas estruturas mais comumente encontradas na Natureza — o grafite.
Segundo artigo de R. Colin Johnson, da “EETimes”, o carbono — base de todos os compostos químicos orgânicos — parece destinado a suplantar o silício como material escolhido para fabricar semicondutores no futuro. Esse elemento, que fica logo acima do silício na tabela periódica dos elementos, será a base de várias estruturas que podem o silício em termos de desempenho térmico, alcance de frequências e talvez até em supercondutividade. As perspectivas que se abrem com o uso do carbono na indústria eletrônica são formidáveis e, aliás, há cerca de dois anos, já escrevi um pouco sobre o tema aqui no Fórum PCs.
Dentre as tecnologias do carbono, as do diamante são provavelmente as mais próximas de entrar no mercado no presente momento, considerando que os trabalhos científicos e experimentais com diamantes nessa área já estão acontecendo há mais de 15 anos. Para quem não se lembra, o diamante é feito de átomos carbono arranjados em uma estrutura cúbica muito sólida, que lhe confere o título de material mais duro da Natureza. As outras estruturas atômicas envolvendo carbono ainda estão muito atrás do diamante em termos de proximidade de comercialização em aplicações tecnológicas. Mas, que outras estruturas são essas?
Este é um corte circular realizado em uma camada de diamante produzida por CVD (Chemical Vapor Deposition = deposição química a vapor) com 500 micra de espessura.  Este é um corte circular realizado em uma camada de diamante produzida por CVD (Chemical Vapor Deposition = deposição química a vapor) com 500 micra de espessura.
Eis aqui uma única placa de CVD de diamante, produzida nos laboratórios da Universidade de Uppsala, na Suécia.Eis aqui uma única placa de CVD de diamante, produzida nos laboratórios da Universidade de Uppsala, na Suécia.
Vamos pensar matematicamente em termos de dimensões. Dimensão “zero” equivale a um ponto; dimensão “um” é uma linha; dimensão “dois” corresponde a uma superfície, uma área; e dimensão “três” representa um volume. Portanto, na família das estruturas carbônicas, temos o carbono tridimensional simbolizado pelo diamante, uma estrutura com volume e que oferece dez vezes mais dissipação de calor do que o silício. Fornecedores experimentais atualmente conseguem produzir finas camadas (chamadas “filmes”) de 40 nanômetros a 15 micra de diamante por sobre waffers de silício.
Ilustração da estrutura de um diamante, uma rede volumétrica compacta, duríssima e bem amarrada.Ilustração da estrutura de um diamante, uma rede volumétrica compacta, duríssima e bem amarrada.
Essa estrutura é a do grafite, composta dos mesmos átomos que o diamante, mas disposta em camadas que escorregam umas sobre as outras, daí o pó de grafite ser usado às vezes como lubrificante.Essa estrutura é a do grafite, composta dos mesmos átomos que o diamante, mas disposta em camadas que escorregam umas sobre as outras, daí o pó de grafite ser usado às vezes como lubrificante.
Descendo uma dimensão, temos as superfícies bidimensionais em monocamada com espessura de 3 angstrom chamadas grafeno, capazes de permitir que os elétrons se movimentem nela dez vezes mais rápido do que no silício, ultrapassando a barreira do velho material e permitindo desempenhos da ordem de Terahertz.
Uma sonda do NIST (National Institute of Standards and Technology) escaneia e mapeia os contornos atômicos do grafeno por meio da aplicação de um campo magnético que faz com que seus elétrons se organizem em órbitas de ciclotron, ou seja, quase circulares. (Fonte “EETimes”)  Uma sonda do NIST (National Institute of Standards and Technology) escaneia e mapeia os contornos atômicos do grafeno por meio da aplicação de um campo magnético que faz com que seus elétrons se organizem em órbitas de ciclotron, ou seja, quase circulares. (Fonte “EETimes”)
Baixando mais uma dimensão, temos os nanotubos de carbono, com 1 nanômetro de diâmetro, capazes de suplantar as barreiras de velocidade impostas pelo silício. Esses nanotubos aparecerão primeiramente no mercado como “tintas” imprimíveis, que permitirão velocidades dez vezes superiores às dos transistores orgânicos cujos protótipos já estão em operação.
Geometria de nanotubosGeometria de nanotubos
Imagem colorida de nanotubosImagem colorida de nanotubos
Nanotubos carbônicos logo após sua geraçãoNanotubos carbônicos logo após sua geração
E, caindo para a dimensão zero — o ponto — temos as esferas carbônicas com 60 átomos desse elemento, e que são chamadas fulerenos. Elas podem significar a resposta à incapacidade do silício em atingir supercondutividade em altas temperaturas. Apenas lembrando, supercondutividade é quando um elemento apresenta resistência zero à passagem de corrente elétrica. Amostras compactadas de fulerenos intercalados com átomos de metais alcalinos apresentam supercondutividade a 38º Kelvin, o que equivale a-235,15º C.
Nesse ponto, o leitor achará estranho considerar 38º Kelvin uma alta temperatura. Acontece que esse conceito é muito relativo, quando se trata de supercondutividade. Qualquer coisa mais quente do que 30º K já é tida como alta temperatura sob essa ótica, especialmente se tal medida se aproximar dos 77º K, que é temperatura do ponto de ebulição do nitrogênio líquido, material relativamente barato de se obter.
Fibra de alto desempenho de nanotubos de carbono com dupla-parede após auto-colapso, em experimento realizado pelo departamento de ciência dos materiais e metalurgia da Universidade de Cambridge, na Inglaterra.Fibra de alto desempenho de nanotubos de carbono com dupla-parede após auto-colapso, em experimento realizado pelo departamento de ciência dos materiais e metalurgia da Universidade de Cambridge, na Inglaterra.
Mas independentemente de frio ou quente, o que nós presenciaremos nos próximos anos será que as tecnologias de processamento de carbono se tornarão mais economicamente viáveis e substituirão quase todos os materiais empregados na fabricação de circuitos hoje em dia — condutores para interligar dispositivos; semicondutores; e isolantes. Só não se pode precisar em quanto tempo exatamente chegaremos a esse ponto, especialmente numa economia mundial sujeita (como sempre será) às flutuações causadas por catástrofes financeiras que vêm pipocando aqui e ali.
Empresas de tecnologia de ponta estão unindo esforços nessa área. Foi o que aconteceu em 2008 com a Nantero e a SVTC , que firmaram parceria para oferecer o primeiro serviço de forja para desenvolvimento de filmes finos de nanotubos de carbono.Quem está gostando muito disso são os fabricantes de chips, que pretendem integrar filmes de nanotubos em interconexões de alto desempenho em circuitos CMOS comerciais. As aplicações incluem células solares, LEDs, sensores, MEMS e outros dispositivos baseados em semicondutores. O problema é que o consórcio de empresas ainda está tendo dificuldades em encontrar clientes que queiram comercializar os dispositivos fabricados com essa técnica.
Para termos uma referência, tendo em vista a integração de dispositivos dentro de chips CMOS abaixo de 22 nanômetros, por exemplo, ainda faltam cerca de cinco anos antes que os pioneiros do mercado consigam comercializar nanotubos de carbono à altura. Se bem que esse material já está sendo produzido em massa por empresas especializadas como a DuPont, e já apareceram no mercado como camadas depositadas em substratos de plástico flexível por gigantes de indústria, como a NEC.
Diamantes podem ser duros, mas agregados amorfos de fulereno são ainda mais. Uma medida chamada “módulo de compressibilidade isotérmica” tem o valor de 442 GPa (Gigapascals) para o diamante, e de 491 Gpa para o fulereno amorfo. O problema é que fulerenos não são encontrados originalmente na Natureza e produzi-los ainda é caro. No entanto, depois da “Idade do Diamante” na eletrônica, certamente veremos surgir a “Idade dos Fulerenos”, quando estes dominarão a ciência dos materiais. Mas isso será coisa para nossos filhos ou talvez netos verem, não nós. Diamantes podem ser duros, mas agregados amorfos de fulereno são ainda mais. Uma medida chamada “módulo de compressibilidade isotérmica” tem o valor de 442 GPa (Gigapascals) para o diamante, e de 491 Gpa para o fulereno amorfo. O problema é que fulerenos não são encontrados originalmente na Natureza e produzi-los ainda é caro. No entanto, depois da “Idade do Diamante” na eletrônica, certamente veremos surgir a “Idade dos Fulerenos”, quando estes dominarão a ciência dos materiais. Mas isso será coisa para nossos filhos ou talvez netos verem, não nós.
Outras empresas vêm adotando estratégicas de produção diferentes, como é o caso da Nanocomp , que está aplicando nanotubos em folhas de carbono que podem ser usadas para detectar rachaduras e outras falhas estruturais em materiais críticos. A empresa também desenvolve fios e cabos de nanotubos que são comparáveis aos feitos de cobre em termos de condutividade elétrica, com a vantagem de serem 80% mais leves.
Na semana que vem continuarei no tema, apresentando os novos e promissores horizontes que se abrem com essa formidável tecnologia que decerto revolucionará o desempenho dos dispositivos eletrônicos em breve.

Nanotecnologia e a resistência Elétrica

Cabos de alumínio com nanotubos reduzem perdas de eletricidade

Alex Sander Alcântara - Agência Fapesp - 29/01/2009
Cabos de alumínio com nanotubos de carbono reduzem perdas de eletricidade
Pesquisa testa cabo de alumínio com nanotubos de carbono que aumenta condutividade elétrica, reduzindo perdas de energia em até 65%. Projeto ganhou o primeiro lugar do Prêmio Werner von Siemens[Imagem: Wikimedia Commons]

Estima-se que hoje a perda de energia durante a transmissão nos cabos elétricos de alta tensão seja de cerca de 5,5 kW por quilômetro de linha. Isso sem considerar as perdas nas estações.
Uma pesquisa feita no Centro de Engenharia de Nanoprodutos da Fundação Educacional Inaciana Padre Sabóia de Medeiros (FEI) testou um cabo de alumínio com nanotubos de carbono que aumenta a condutividade elétrica em 170 vezes e reduz as perdas de energia em até 65% em relação aos cabos de alumínio tradicionais.
Alma de alumínio
O fio é composto de uma alma de alumínio com camada superficial de nanotubos de carbono. De acordo com o professor do Departamento de Engenharia de Materiais da FEI, Ricardo Hauch Ribeiro de Castro, orientador da pesquisa, o trabalho se destaca pela técnica de aplicação, de baixo custo e elevado rendimento, que confere à nova tecnologia a possibilidade de implantação industrial.
"Com um custo razoável de aplicação, esse novo conceito de fio poderia ser utilizado em linhas de transmissão, reduzindo as perdas significativamente. Redução de perdas representa queda no custo total de energia", disse Castro à Agência FAPESP.
Prêmio de Inovação Tecnológica
O projeto foi desenvolvido por Eric Costa Diniz, aluno de engenharia elétrica da FEI, e contou com a colaboração dos professores Marcello Bellodi e Alessandro La Neve, ambos do Departamento de Engenharia Elétrica.
A pesquisa conquistou o 1º lugar no Prêmio Werner von Siemens de Inovação Tecnológica em 2008, na categoria Estudante - Novas Ideias, categoria Energia. O projeto foi escolhido entre 253 trabalhos inscritos por estudantes de graduação e pós-graduação do Brasil. Como prêmio, Diniz recebeu R$ 10 mil.
Cabo de energia com nanotecnologia
De acordo com Castro, as perdas naturais na condução de energia ocorrem porque a superfície sofre ligeira oxidação, formando uma camada passiva, o que prejudica a condutividade. "Recobrindo a superfície do alumínio com nanotubos de carbono, esperava-se uma redução de perda, pois a condutividade elétrica dos nanotubos de carbono é elevada e tem um mecanismo diferente de condução eletrônica", explicou.
Segundo ele, esse novo fio abre perspectivas para a melhora da qualidade de transmissão de energia. "Além de reduzir as perdas, as propriedades mecânicas do cabo não são alteradas significativamente, já que a diferença entre o cabo tradicional de alumínio e o testado neste projeto é apenas uma camada superficial. Isso indica uma possibilidade concreta de substituição dos cabos atuais sem mudanças significativas na infraestrutura básica", disse.
Cabos de aço versus cabos de alumínio
A maior parte das linhas de transmissão do sistema brasileiro utiliza, segundo o professor, cabos de aço do tipo 636. "Os cabos de alumínio são utilizados com menor frequência. Mas eles vêm ganhando mercado nos últimos anos e há projeções de uma mudança total do sistema de linhas de transmissão para as próximas décadas", afirmou.
"Com a nova proposta de cabo de alumínio com nanotubos de carbono, os ganhos na redução de perda são muito mais expressivos. Isso poderia intensificar a migração dos cabos de aço para essa nova geração de cabos de transmissão nanotecnológicos, reduzindo as perdas de energia e economizando muito dinheiro", apontou.
O custo da nanotecnologia
O próximo passo da pesquisa será estender a experiência para cabos de condução maiores - o trabalho foi feito com um protótipo de 10 centímetros de extensão. A maior limitação, segundo Castro, é o custo relativamente alto, uma vez que os nanotubos de carbono utilizados são importados da China ou dos Estados Unidos. "Infelizmente, não há uma produção muito expressiva de nanotubos de carbono no Brasil, o que aumenta o custo do produto final."
Apesar dessa limitação, o professor da FEI afirma que a técnica de deposição dos nanotubos desenvolvida no projeto é economicamente viável. "Utilizando-se via líquida, foi possível montar um sistema eficaz e capaz de ser introduzido em uma fábrica de trefilação de cabos com investimentos relativamente modestos", disse.
"O ponto a favor é que, como é aplicada apenas uma única camada de nanotubos de carbono no corpo de alumínio, a quantidade utilizada é muito pequena. Estimamos o aumento do custo de fabricação de um fio de alumínio com nanotubos em R$ 3 por metro, em relação ao cabo convencional. Apesar de parecer muito, se considerarmos o ganho operacional nas reduções de perdas durante a transmissão, o novo cabo poderia ter vantagens econômicas significativas", destacou Castro.
Segundo ele, a pesquisa prosseguirá no melhoramento do protótipo. "O próximo passo é o alinhamento dos nanotubos de carbono em uma única direção para explorar ao máximo sua condutibilidade elétrica", disse.

Física para Todos

Física para todos

Fonte: http://www.prefeitura.sp.gov.br/cidade/secretarias/cultura/bibliotecas/noticias/?p=8244

Ciclo de Palestras Física para Todos, em linguagem acessível ao grande público.
O Instituto de Física da Universidade de São Paulo (IFUSP), em parceria com o Sistema Municipal de Bibliotecas, apresenta o Ciclo de Palestras Física para Todos, em linguagem acessível ao grande público. As palestras, proferidas por alguns dos melhores professores e pesquisadores de Física do IFUSP, tratam de temas contemporâneos e relevantes e pretendem mostrar que a Física está presente em muitos aspectos na vida das pessoas.


Nanotubos, nanofios e a engenharia do futuro

Nanotubos, nanofios e a engenharia do futuro
Prof. Antonio José Roque da Silva
Na última década, as pesquisas no campo da nanociência e nanotecnologia vêm recebendo uma atenção especial em várias áreas do conhecimento, como Física, Química, Biologia e Engenharia. Esse grande interesse pode ser atribuído ao fato de que sistemas físicos apresentam novos comportamentos quando manipulados em escalas nanométricas. Isso, com certeza, alterará de forma substancial a engenharia e a medicina do futuro, talvez em uma proporção até maior do que a ocorrida devido à física do silício e a microeletrônica no século XX. Essas idéias serão abordadas durante a palestra, exemplificando com materiais específicos, como nanotubos de carbono e nanofios metálicos.
Biblioteca Mário Schenberg
Dia 11 de setembro às 15h


O homem agredindo o meio ambiente local e global
Prof. Paulo Eduardo Artaxo Netto
A humanidade adquiriu a capacidade de alterar o meio ambiente local e global, com conseqüências que podem não ser muito positivas para nós. A poluição do ar em São Paulo afeta a saúde de milhões de paulistanos, enquanto o efeito estufa global pode alterar o clima da terra de modo bastante significativo. O impacto no meio ambiente físico dessas alterações, como o aumento da temperatura global, terá implicações sociais e econômicas importantes para o Brasil e nosso planeta. Esses impactos podem alterar desde a ocupação de nosso litoral, a produção agrícola, e todo o sistema econômico global, com perspectivas que vamos discutir nesta conferência.
Biblioteca Viriato Corrêa
Dia 25 de setembro às 11h
Admirável mundo quântico
Prof. Celso Luiz Lima
O século passado foi marcado pelo aparecimento da mecânica quântica. Seu desenvolvimento determinou profundas alterações na maneira como nos relacionamos com o mundo que nos cerca; a mecânica quântica teve impactos na química, na biologia e está na raiz de grande parte da tecnologia moderna. A interpretação oferecida pela mecânica quântica aos fenômenos do mundo do muito pequeno difere dramaticamente daquela sugerida pela nossa intuição, alterando, portanto, nossa visão de mundo. Esta palestra abordará conceitos básicos da mecânica quântica, focalizando, em especial, aspectos em que a interpretação quântica difere da nossa intuição clássica.
Biblioteca Mário Schenberg
Dia 2 de outubro às 15h

'A Partícula de Deus'

Traços exóticos da 'partícula de Deus' surpreendem físicos 

fonte:http://www1.folha.uol.com.br/ciencia/1134835-tracos-exoticos-da-particula-de-deus-surpreendem-fisicos.shtml

SALVADOR NOGUEIRA
COLABORAÇÃO PARA A FOLHA
A partícula de Deus está, ao que parece, do jeito que o diabo gosta: malcomportada. É o que indica uma análise preliminar de dados coletados no LHC, maior acelerador de partículas do mundo.
O trabalho, feito por Oscar Éboli, do Instituto de Física da USP, sugere que o chamado bóson de Higgs, que seria responsável por dar massa a tudo o que existe, não está se portando como deveria, a julgar pela teoria que previu sua existência, o Modelo Padrão.
Se confirmado, o comportamento anômalo da partícula seria a deixa para uma nova era da física.

Editoria de arte/folhapress
A descoberta do possível bóson, anunciada com estardalhaço no mês passado, foi comemorada como a finalização de uma etapa gloriosa no estudo das partículas fundamentais da matéria.
Sua existência, em resumo, explicaria porque o Sol pode produzir sua energia e criaturas como nós podem existir.
Dada sua importância para a consistência do Universo (e fazendo uma analogia com a história bíblica da torre de Babel), o físico ganhador do Nobel Leon Lederman deu ao bóson o apelido de "partícula de Deus".
Para analisar o bóson de Higgs, é preciso primeiro produzir uma colisão entre prótons em altíssima velocidade -função primordial do LHC.
Então, do impacto de alta energia, surgem montes de novas partículas, dentre as quais o Higgs, que rapidamente decai, como se diz.
É que, por ser muito instável, o bóson se "decompõe" quando a energia da colisão diminui. Aparecem, no lugar dele, outras partículas. É esse subproduto que pode ser detectado e indicar a existência do bóson de Higgs.

Físicos encontram provável 'partícula de Deus'

 Ver em tamanho maior »
France Presse
Anterior Próxima
A confirmação da nova partícula é resultado das pesquisas que têm sido realizadas no maior acelerador de partículas do mundo, o LHC (Grande Colisor de Hádrons)
Contudo, isso exige a realização de muitos impactos, até que as estatísticas comecem a sugerir a presença do procurado bóson.
Os dados coletados até aqui são suficientes para apontar a existência da partícula, mas suas características específicas ainda não puderam ser determinadas.
"Estamos ainda num estágio inicial da exploração das propriedades dela", diz Éboli. "Contudo, há uma indicação de que o Higgs decaia mais em dois fótons [partículas de luz] do que seria esperado no Modelo Padrão."
Os resultados dessa análise preliminar foram divulgados no Arxiv.org, repositório de estudos de física na internet, e abordados na revista "Pesquisa Fapesp".
SURPRESA BEM-VINDA
A novidade anima os cientistas. "Para a maioria dos físicos, o Modelo Padrão é uma boa representação da natureza, mas não é a teoria final", afirma Éboli.
"Se de fato for confirmado que o Higgs está decaindo mais que o esperado em dois fótons, isso pode significar que novas partículas podem estar dentro do alcance de descoberta do LHC."
Poderia ser o primeiro vislumbre de um novo "zoológico" de tijolos elementares da matéria. Previa-se que essas partículas exóticas começassem a aparecer com as energias elevadas do LHC.
Tudo muito interessante, mas nada resolvido.
"É um trabalho muito sério, mas eu acho que ainda é muito cedo para se tirar qualquer conclusão se se trata ou não do Higgs padrão", afirma Sérgio Novaes, pesquisador da Unesp que participa de um dos experimentos que detectaram o bóson de Higgs.
"Até o final do ano as coisas estarão um pouco mais claras", avalia ele.