Ciência

Ciência, Saúde, Economia, Política

Postby junior » 24 Feb 2007, 15:46

Mas que uma religião se encerra somente em mitologia É PRECONCEITO SEU E DO DAWKINS.


Não disse SOMENTE. O ponto é que sem a mitologia a religião deixa de fazer sentido: não existe religião sem um ser mitológico.

Os pré-socráticos começaram a separar a religião do mito.


Sim: quase dois mil anos depois, um virou ciência, outro continuou sendo religião...

se vc ler a Veja dessa semana, vai achar uma citação de Estácio (45-96), poeta latino:


sim, eu vi o texto do Azevedo...

dizer que AGORA a Ciência "compreende" o mundo é arrogância. RELATIVAMENTE AOS MODELOS DE CADA ÉPOCA, sempre houve compreensão racional do mundo!


Concordo plenamente, esse NÃO é meu ponto!!

NINGUÉM, NENHUM CIENTISTA RAZOÁVEL, vai dizer que AGORA a ciência explica tudo: mas se vc me disser que o entendimento atual do mundo não é melhor que o dos gregos o que do S T Aquino, aí vc vai estar dizendo bobagem, pelo menos na minha opinião.

O ponto não é que agora compreendemos o mundo via ciência, e chegamos num ponto que podemos dizer que sabemos tudo. O meu ponto (e provavelmente o de todos) é que a ciência, pelo que sabemos hoje, é o melhro caminho para nos fazer entender o mundo: ter as leis de Newton, Kepler, Einstein, etc, foi, respectivamente, o que nos fez compreender que o céu é feito da mesma coisa que a Terra, que as órbitas dos planetas são elipses e não círculos, e que o nosso planetinha é um "nada", numa galáxia perdida entre tantos bilhões de outras iguaizinhas. Isso, nenhuma religião jamais poderia ter te dado. Esse é meu ponto!

Um verdadeiro crente na liberdade de credo nunca diria que a religião é o caminho da ignorância ou o ópio do povo.


A partir do momento em que a religião faça que vc não QUEIRA ver as coisas, não QUEIRA saber que o mundo funciona via Evolução e não criado de uma só vez, que o mundo não tem dez mil anos mas sim 14 bilhoes, e não queira saber tudo o que aprendemos sobre o mundo ao nosso redor, então é sim o caminho da ignorância. Seria como saber dos crimes do Stalinismo, e não dizer querer acreditar pq o sistema comunista diz que é mentira...
"Cosmologists are often in error, but never in doubt." - Lev Landau
User avatar
junior
Grão-Mestre Saidero
Grão-Mestre Saidero
 
Posts: 887
Joined: 13 Feb 2004, 11:55
Location: Sei lá... Em algum lugar com conexão a internet! :-)

Postby junior » 24 Feb 2007, 15:48

Dawkins é totalitário E marxista.


Como vc mesmo disse, é um direito dele querer ser idiota. Desmerecer suas crenças não é o mesmo que desmerecer seus argumentos, como vc mesmo deu a entender, uai.
"Cosmologists are often in error, but never in doubt." - Lev Landau
User avatar
junior
Grão-Mestre Saidero
Grão-Mestre Saidero
 
Posts: 887
Joined: 13 Feb 2004, 11:55
Location: Sei lá... Em algum lugar com conexão a internet! :-)

Postby mends » 25 Feb 2007, 16:11

sem a mitologia a religião deixa de fazer sentido: não existe religião sem um ser mitológico.


Carai, vou ter que escrever de novo? Deus não é um ser, é uma Idéia! Mesmo os "pobrezinhos ignorantes" deixam a mitologia pros santos e crêem em um Deus-Idéia. Isso é válido para o judaísmo e para o Islamismo, as três grandes religiões do mundo.

Desmerecer suas crenças


Não estou desmerecendo, pelo menos não totalmente. Estou identificando a raiz epistemológica dos seus argumentos. Aliás, muito me espanta um cientista de esquerda. Se a ciência é "tentativa e erro" e "abandono do que deu errado", o que menos deveria haver no mundo é cientista de esquerda, democrata (no sentido americano) e comunista.

Ah, e saber que o céu é feito da mesma "coisa" que a Terra é algo que Demócrito, em 460 aC, lá no Egeu, já sabia. Hoje podemos saber exatamente do que é feito, mas aí temos 2500 anos de "força bruta".

E, de novo (até parece que sou carola, quando sou agnóstico): o que nos garante que a Ciência nos dá realmente respostas, e não "visôes" do mundo? Se um físico formula uma teoria, essa teoria por vezes prevê resultados de tal e qual forma. trinta, quarenta anos depois, a tecnologia avançou pra termos a "comprovação" dos resultados. O que garante que não há um survivor bias nisso tudo? De que vemos o que conseguimos ver, ou o que queremos ver? Entender não significaria estar EXTERNO ao fenômeno? Pode um cachorro entender mecânica quântica?
"I used to be on an endless run.
Believe in miracles 'cause I'm one.
I have been blessed with the power to survive.
After all these years I'm still alive."

Joey Ramone, em uma das minhas músicas favoritas ("I Believe in Miracles")
User avatar
mends
Saidero MegaGoldMember
Saidero	MegaGoldMember
 
Posts: 5183
Joined: 15 Sep 2003, 18:45
Location: por aí

Postby junior » 26 Feb 2007, 10:43

Carai, vou ter que escrever de novo? Deus não é um ser, é uma Idéia! Mesmo os "pobrezinhos ignorantes" deixam a mitologia pros santos e crêem em um Deus-Idéia. Isso é válido para o judaísmo e para o Islamismo, as três grandes religiões do mundo.


Carai digo eu mano! :lol: :lol: Vc está cometendo um sacrilégio: santos, pelo menos na religião católica, NÃO FAZEM MILAGRES: INTERCEDEM a Deus para que esse os faça...

Ah, e saber que o céu é feito da mesma "coisa" que a Terra é algo que Demócrito, em 460 aC, lá no Egeu, já sabia. Hoje podemos saber exatamente do que é feito, mas aí temos 2500 anos de "força bruta".


Bom, primeiro que ele podia "achar", mas não saber. Segundo que ele era atomista sim, mas num sentido bem diferente do que chamamos de átomos hoje, ou de como entendemos que as coisas são feitas. Aliás, antes que vc reclame, NÃO estou desmerecendo os manos gregos!

Não teríamos o que temos hoje sem eles!! A única coisa que digo é que aprendemos muito desde então, e embora sim tivessem a idéia certa para sua época, hoje em dia estamos muito mais próximos da descrição do mundo, e não faz sentido recorrer a suas idéias, exceto para dar o valor que merecem de ter criado a filosofia, terem sido um povo f***do para sua época, etc, etc.

De que vemos o que conseguimos ver, ou o que queremos ver?


Isso soa teoria conspiratória "quem matou o JFK??". O que um cientista quer, mais do que estar certo, é descrever de modo razoável o mundo. São n negos fazendo n diferentes experimentos para verificar uma teoria e tentar tirar todos os bias possíveis da coisa. Claro que podem estar errados, isso ninguém discute. Aliás, isso é uma das coisas que diferencia a ciência da religião: poder estar errado, e se estiver, voltar e refazer as coisas.

Uma teoria em ciência é válida até que tenhamos algo melhor, e o modo como concebemos cientificamente o mundo hoje é a melhor coisa que temos. Seguramente não é a palavra final, e as coisas vão continuar avançando. Esse é meu ponto.


Entender não significaria estar EXTERNO ao fenômeno?


Boa pergunta, não sei. Mas para ser otimista, não creio, ou desistiremos de todas as possibilidades de tentar entender o próprio universo e nosso cérebro.

A história nos mostra que temos avançado (a menos que vc queira crer que a natureza nos sacaneia, como no comentário anterior) em ambas áreas, mesmo estando "dentro". Além disso, um by-product da ciência é exatamente o modo de ver as coisas: sempre podemos estar errados, podemos aprender as coisas aos poucos, etc.

Assim como te impressiona um cientista de esquerda com o Dawkins (se é que ele é...), me impressiona alguém tão fã do conhecimento ter dúvidas quanto ao avanço gerado pela ciência... ;)
"Cosmologists are often in error, but never in doubt." - Lev Landau
User avatar
junior
Grão-Mestre Saidero
Grão-Mestre Saidero
 
Posts: 887
Joined: 13 Feb 2004, 11:55
Location: Sei lá... Em algum lugar com conexão a internet! :-)

Postby junior » 26 Feb 2007, 11:45

Aliás, Mends, se vc quiser dar a tréplica (^n), beleza, mas esse assunto de religião vs ciência já encheu o saco, não hahahahaha :lol: :lol: :lol: :lol: Quiçá voltemos quando eu leia o livro hahahahaha :lol: :lol: :lol:

O que era do gato do Mr. Schrondinger mesmo??
"Cosmologists are often in error, but never in doubt." - Lev Landau
User avatar
junior
Grão-Mestre Saidero
Grão-Mestre Saidero
 
Posts: 887
Joined: 13 Feb 2004, 11:55
Location: Sei lá... Em algum lugar com conexão a internet! :-)

Postby mends » 26 Feb 2007, 14:48

assunto encerrado até que você leia o livro. :cool:

quanto ao "amigo do conhecimento", "só sei que nada sei". :P

o papo do gato é o seguinte: sei que, em termos macro, é só pra mostrar que é uma situação impossível. agora, sempre que ouvi que determinado estado depende do "observador", isso implica o quê? alguém literalmente observando externo ao processo? se é assim, vou longe: não deveria haver algo/alguém externo ao universo para que as situações se definissem? :blink:
"I used to be on an endless run.
Believe in miracles 'cause I'm one.
I have been blessed with the power to survive.
After all these years I'm still alive."

Joey Ramone, em uma das minhas músicas favoritas ("I Believe in Miracles")
User avatar
mends
Saidero MegaGoldMember
Saidero	MegaGoldMember
 
Posts: 5183
Joined: 15 Sep 2003, 18:45
Location: por aí

Postby junior » 01 Mar 2007, 10:53

News

Nature 446, 10-11 (1 March 2007) | doi:10.1038/446010a; Published online 28 February 2007
The lab that asked the wrong questions


Lucy Odling-Smee, Princeton
Top of page
Abstract

Closure of parapsychology lab throws spotlight on scientific taboos.
The lab that asked the wrong questions

A. KANE PHOTOGRAPHERS, PEAR LAB.

PEAR lab researchers feel that their parapsychology work was unfairly judged.

A medley of random-event machines, including a kaleidoscopic crystal ball on a pendulum, a pipe spurting water and a motorized box straddled by a toy frog, came to the end of their working lives yesterday at the Princeton Engineering Anomalies Research (PEAR) laboratory in New Jersey.

Only romantics — and some parapsychologists — are likely to lament the loss of this unique institution, which investigated whether people can alter the behaviour of machines using their thoughts. Many scientists think the lab's work was pointless at best. But the closure highlights a long-running question: how permissive should science be of research that doesn't fit a standard theoretical framework, if the methods used are scientific?

The PEAR lab was founded in 1979 by Robert Jahn, former dean of Princeton's school of engineering and applied sciences, and an expert on electric propulsion. Start-up funds came from aerospace pioneer James McDonnell, who believed that aircraft machinery was influenced by the mental states of pilots. The lab has relied on private funds ever since.

Over 28 years, PEAR researchers collected data from tens of millions of trials using random-event machines. When all the data are considered together, they show that human intention has a very slight effect, the researchers say. Whether the machine is a screen that flashes numbers or a fountain of water droplets, they say that, on average, people can shift 2–3 events out of 10,000 from chance expectations.

It was Jahn's decision to close the lab. He set out to prove the existence of the effect and, at 76, believes the work is done. But such tiny deviations from chance have not convinced mainstream scientists, and the lab's results have been studiously ignored by the wider community. Apart from a couple of early reviews (R. G. Jahn Proc. IEEE 70, 136–170; 1982 and R. G. Jahn and B. J. Dunne Found. Phys. 16, 721–772; 1986), Jahn's papers were rejected from mainstream journals. Jahn believes he was unfairly judged because of the questions he asked, not because of methodological flaws.

Even in other areas of parapsychology, opinion is divided on the lab's results. The difficulty is that it's virtually impossible to prove that such subtle effects aren't caused by some flaw in the methods or equipment. A recent meta-analysis (H. Bösch et al. Psychol. Bull. 132, 497–523; 2006) combined 380 studies on the phenomenon, often termed psychokinesis, including data from the PEAR lab. It concluded that although there is a statistically significant overall effect, it is not consistent and relatively few negative studies would cancel it out, so biased publication of positive results could be the cause.

Robert Park, a physicist at the University of Maryland, adds that if you run any test often enough, it's easy to get the "tiny statistical edges" the PEAR team seems to have picked up. If a coin is flipped enough times, for example, even a slight imperfection can produce more than 50% heads.

In the end, the decision whether to pursue a tiny apparent effect or put it down to statistical flaws is a subjective one. "It raises the issue of where you draw the line," says sceptic Chris French, an 'anomalistic psychologist' at Goldsmiths, University of London, who tries to explain what seem to be paranormal experiences in straightforward psychological terms. French thinks that even though the chances of a real effect being discovered are low, the implications of a positive result would be so interesting that work such as Jahn's is worth pursuing.

Many scientists disagree. Besides being a waste of time, such work is unscientific, they argue, because no attempt is ever made to offer a physical explanation for the effect. Park says the PEAR lab "threatened the reputation" of both Princeton and the wider community. He sees the persistence of such labs as an unfortunate side effect of science's openness to new questions. "The surprising thing is that it doesn't happen more often," he says.

William Happer, a prominent physicist at Princeton, takes the middle ground. He believes the scientific community should be open to research that asks any question, however unlikely, but that if experiments don't produce conclusive results after a reasonable time, researchers should move on. "I don't know why this took up a whole lifetime," he says.

Parapsychologists have a hard time trying to publish in mainstream journals.

The status of paranormal research in the United States is now at an all-time low, after a relative surge of interest in the 1970s. Money continues to pour from philanthropic sources to private institutions, but any chance of credibility depends on ties with universities, and only a trickle of research now persists in university labs.

ADVERTISEMENT
Nature Nanotechnology - Interested in receiving E-Alerts? Sign up here.

Elsewhere the field is livelier. Britain is a lead player, with privately funded labs at the universities of Edinburgh, Northampton and Liverpool Hope, among others. Parapsychologist Deborah Delanoy at the University of Northampton suspects that the field is stronger in Britain because researchers tend to work in conventional psychology departments, and also do studies in 'straight' psychology to boost their credibility and show that their methods are sound. "We're seen to be in the same business as other psychologists," she says.

But parapsychologists are still limited to publishing in a small number of niche journals. French thinks the field is treated unfairly. "I'm convinced that parapsychologists have a hard time trying to publish in mainstream journals," he says, adding that he even has difficulty publishing his 'straight' papers on why people believe in paranormal events: "Simply because the paper mentions the word telepathy or psychokinesis, it isn't sent out to referees. People think the whole thing is a waste of time."
"Cosmologists are often in error, but never in doubt." - Lev Landau
User avatar
junior
Grão-Mestre Saidero
Grão-Mestre Saidero
 
Posts: 887
Joined: 13 Feb 2004, 11:55
Location: Sei lá... Em algum lugar com conexão a internet! :-)

Postby junior » 01 Mar 2007, 11:05

Citado ao lado do artigo de cima, na versão .pdf

“I always knew that a geek would make a great husband.”

Minneapolis resident Melinda Kimberly, who retrieved her stolen laptop because her husband was using it to run the alien-hunting SETI@home software. The program revealed the laptop’s location when it checked in with SETI’s server.

:lol: :lol: :lol:
"Cosmologists are often in error, but never in doubt." - Lev Landau
User avatar
junior
Grão-Mestre Saidero
Grão-Mestre Saidero
 
Posts: 887
Joined: 13 Feb 2004, 11:55
Location: Sei lá... Em algum lugar com conexão a internet! :-)

Postby junior » 05 Mar 2007, 10:42

Isso é uma idéia que talvez interesse a alguém: um banco de dados, by IBM, com as pesquisas recentes, etc, etc, de onde vc pode baixar os dados, usá-los de n formas distintas, etc, etc.

Do site

Many Eyes is a bet on the power of human visual intelligence to find patterns. Our goal is to "democratize" visualization and to enable a new social kind of data analysis. Jump right to our visualizations now, take a tour, or read on for a leisurely explanation of the project.

All of us in CUE's Visual Communication Lab are passionate about the potential of data visualization to spark insight. It is that magical moment we live for: an unwieldy, unyielding data set is transformed into an image on the screen, and suddenly the user can perceive an unexpected pattern. As visualization designers we have witnessed and experienced many of those wondrous sparks. But in recent years, we have become acutely aware that the visualizations and the sparks they generate, take on new value in a social setting. Visualization is a catalyst for discussion and collective insight about data.

We all deal with data that we'd like to understand better. It may be as straightforward as a sales spreadsheet or fantasy football stats chart, or as vague as a cluttered email inbox. But a remarkable amount of it has social meaning beyond ourselves. When we share it and discuss it, we understand it in new ways.


Parece que até agora é mais um negócio de gente de humanas, a la "relação entre votos e raça", ou coisas assim, mas que pode ser que venha a fazer barulho um dia. Vale a pena perder um tempinho para dar uma olhada.

http://services.alphaworks.ibm.com/manyeyes/home

January 31st, 2007 Democratizing Visualization

Information visualization (infovis) has always been something that is done by experts for experts. Think scientists in white lab coats pouring over visualizations of complex data sets in order to further human knowledge. You might also be reminded of economists and financial gurus forever hypnotized by the glow of monitors showing esoteric visualizations of streaming financial data.

But in the last few years there have been a couple of occasions when infovis has dabbed into the public arena to help spark debate and insight in exciting ways. Take, for example, the series of maps of the US that circulated on the Internet and in the media showing “red” and “blue” states during the last presidential election:

Image
U.S. election maps

As this page from the University of Michigan shows, the first map that circulated showed each state colored in either red or blue depending on whether a majority of voters voted Republican or Democratic. It was a fine representation of the country but one that gave the superficial impression that the “red states” dominated the picture, since they covered far more area than the blue ones. Quickly afterwards, another map came along showing voting patterns in counties instead of states and coloring each county based on percentage of votes in order to represent results more accurately. Finally, a third map distorted the size of counties based on population count (a technique also known as a cartogram), which better represented the high concentration of people in big cities.

In short, the election maps got progressively more sophisticated as people tried to understand voting results. They also illustrated the fact that there are multiple ways of telling the same story. The maps became an essential part of a national debate on politics, a divided country, and what it means to represent complex data.

We believe this kind of collective sensemaking is not an isolated phenomenon, but rather, an exciting example of social data analysis around visualization. This is precisely our intent in having created Many Eyes: to enable people to collectively reason about the trends and patterns they see on the vivid representations of data called visualizations.

We invite you to visit Many Eyes, play with the visualizations, upload data, share your perspective, and get conversations started. Already we are seeing users discuss a plethora of topics ranging from McDonalds nutrition data, to bioinformatics, to the bible.

What’s in your data set?
"Cosmologists are often in error, but never in doubt." - Lev Landau
User avatar
junior
Grão-Mestre Saidero
Grão-Mestre Saidero
 
Posts: 887
Joined: 13 Feb 2004, 11:55
Location: Sei lá... Em algum lugar com conexão a internet! :-)

Postby junior » 07 Mar 2007, 14:21

http://marcelocoelho.folha.blog.uol.com.br/arch2007-03-04_2007-03-10.html#2007_03-07_11_02_00-10759959-26

O filme de Al Gore


Finalmente vi, porque acaba de ser lançado em DVD, o documentário de Al Gore sobre o aquecimento global. Acho que esperava mais de “Uma Verdade Inconveniente”. Nos jornais e nas revistas, somos confrontados todo dia com as evidências que ele quer apontar: fotos do Kilimanjaro sem neve, das enchentes na Europa Central, da seca (imagine,seca!) na Amazônia –tudo isso é impressionante, e dificilmente o documentário poderia agregar novas coisas ao que já se sabe.

Estou exagerando, é claro, porque os gráficos apresentados por Al Gore, um depois do outro, constituem uma avalanche de dados que, a esta altura, nenhum cético teria fôlego de refutar. Muito significativa –e alarmante—é a comparação feita entre o que a imprensa publica sobre o assunto e o que aparece nas revistas científicas. Nenhum artigo científico sério contesta o aquecimento global; quase metade das matérias publicadas nos jornais e revistas –pelo menos até o momento em que o documentário foi realizado— traz dúvidas quanto à realidade do efeito estufa. Isso já deve ter mudado bastante, porque as provas e relatórios oficiais se acumulam, na medida mesma em que o fenômeno se acelera terrivelmente.

Uma coisa, entretanto, foi bem nova para mim: é a extrema “ciência” com que se fazem conferências hoje em dia. Os slides, “datashows”, ou seja lá que nome tenham, são utilizados por Al Gore com cem por cento de eficácia comunicativa. Ele até usa uma grua para acompanhar de perto, fisicamente, as altitudes atingidas por determinadas curvas no gráfico no gigantesco telão que tem a seu dispor. Tudo entremeado por perfeitas piadinhas, misturando entretenimento e informação; perto do fim, uma grande conclamação retórica e otimista sobre nossa capacidade de mudar o quadro. Notando o perigo de se achar que “ah, no fim, vão achar uma solução”, Al Gore acrescenta novos alarmes aos minutos finais.

O filme é pouco mais do que essa conferência, com pouquíssimas cenas de devastação, aquecimento ou catástrofe “in loco”. Um certo culto à personalidade de Al Gore é também bastante visível, com freqüentes closes de seu rosto; o efeito é um pouco desagradável, porque o ex-candidato à presidência dos Estados Unidos está, não digo engordando, mas “crescendo” em todas as direções, como se fosse um super-herói submetido a algum tipo de experiência pneumática. Logo ele não vai precisar da grua para fazer suas conferências.

Gostaria de um segundo documentário, sobre as resistências políticas ao tema. O filme faz alusão a alguns dos lobbies encarregados de negar o aquecimento global, mas valeria a pena insistir nesse ponto. Enquanto isso, “ O Dia Depois de Amanhã”, sentimentalóide blockbuster de catástrofe produzido pela Fox, funciona admiravelmente na visualização do que –Deus nos livre—vem por aí.
"Cosmologists are often in error, but never in doubt." - Lev Landau
User avatar
junior
Grão-Mestre Saidero
Grão-Mestre Saidero
 
Posts: 887
Joined: 13 Feb 2004, 11:55
Location: Sei lá... Em algum lugar com conexão a internet! :-)

Postby mends » 07 Mar 2007, 16:48

dá vontade de pegar esses idiotas e dar na cara até acordar...
"I used to be on an endless run.
Believe in miracles 'cause I'm one.
I have been blessed with the power to survive.
After all these years I'm still alive."

Joey Ramone, em uma das minhas músicas favoritas ("I Believe in Miracles")
User avatar
mends
Saidero MegaGoldMember
Saidero	MegaGoldMember
 
Posts: 5183
Joined: 15 Sep 2003, 18:45
Location: por aí

Postby tgarcia » 12 Mar 2007, 17:50

Interessante. Acho que nunca tinha parado para pensar a respeito.


http://cienciahoje.uol.com.br/67324
Mendel: o anti-herói
Colunista discute por que o brilhante monge não tem o mesmo prestígio científico de Darwin



Recentemente, assistindo a um programa do jornalista americano Charlie Rose sobre Charles Darwin, no qual ele entrevista os famosos geneticistas americanos James Watson (leia-se “estrutura do DNA”) e Edward O. Wilson (leia-se “sociobiologia”), ouvi o seguinte diálogo:

Wilson: “Gostaria de sugerir que, daqui a 500 anos, talvez daqui a 1000 anos, haverá dois marcos principais da origem da biologia moderna: a Origem das espécies de 1859 e o artigo de 1953 demonstrando a estrutura do DNA, por Watson e Crick.”
Watson: “Não quero soar modesto, mas eu adicionaria um terceiro, que é o de Mendel em 1865.”
Wilson: [veementemente]: “Discordo!”


Gregor Mendel (1822-1884) nasceu pobre na Europa Central e passou a maior parte de sua vida em um monastério na Morávia. Sua carreira foi totalmente desprovida de traços heróicos.



Por que Gregor Mendel (1822-1884) não seria considerado uma figura da mesma estatura científica de Darwin? Eis um prato cheio para os historiadores da ciência. Minha opinião é que, simplesmente, faltava-lhe carisma. Seu arco de vida não é aquele do herói mítico que discutimos em janeiro – pelo contrário, atrevo-me a dizer que Mendel é um anti-herói trágico. Uso aqui a expressão “anti-herói” no mesmo significado do Dicionário Houaiss que o define como “oposto do herói, especialmente personagem de ficção a quem faltam atributos físicos e/ou morais característicos do herói clássico”.

Sou fã de carteirinha do Mendel. Basta ler o seu artigo de 1865 intitulado “ Experimentos sobre a hibridização das plantas ” para sentir um intelecto poderoso em ação, brilhante no planejamento detalhado dos experimentos, na análise cuidadosa dos dados e na interpretação disciplinada dos resultados. O trabalho é um triunfo do método científico, com doses equilibradas de inspiração e perspiração!

A conclusão da pesquisa de Mendel – contra-intuitiva para a época, mas cogente, inevitável e irrefutável – foi que a transmissão de caracteres hereditários ocorria de maneira particulada, quântica, descontínua, por meio dos “genes” (que só viriam a receber este nome em 1906). Certamente ele descrevia um mecanismo biológico de singular beleza e de uma simplicidade franciscana (no caso de Mendel poderíamos também dizer de uma transcendência agostiniana, já que esta era a sua ordem religiosa).

Assim como a gravitação newtoniana basta para explicar a mecânica celeste e a seleção natural darwiniana basta para explicar a evolução da vida na Terra, a herança “particulada” de Mendel basta para explicar a hereditariedade genética. E tudo isso contido em um texto espartano, científico, factual, matemático. Como disse São Jerônimo (342?-420), responsável pela Vulgata , a primeira tradução da Bíblia para o latim: venerationi mihi semper fuit non verbosa rusticitas, sed sancta simplicitas (“Sempre reverenciei não a rústica verbosidade, mas a santa simplicidade”). Não resisto aqui à tentação de lembrar que o alter ego do cultíssimo São Jerônimo no sincretismo afro-brasileiro é o poderoso Xangô. Saravá!

Feio, pobre e mora longe
Quando eu era criança, era comum descrever um indivíduo sem grandes qualidades aparentes com a expressão “é feio, pobre, tem pé grande e mora longe”. Não sei quanto Mendel calçava, mas certamente ele preenchia todos os outros requisitos.

Em uma cápsula: Mendel nasceu na Silésia, na Europa Central, muito longe de Londres, Paris, Berlim e Viena, os grandes centros científicos da época. Sua família era de modestos agricultores. Foi batizado como Johann, nome trocado mais tarde por Gregor, ao entrar em 1843 para a Abadia Agostiniana de São Tomás em Brünn (hoje na República Tcheca, mas na época parte do Império Austro-Húngaro). Sua vocação religiosa é questionável – no século 19, a única opção viável para um jovem pobre que quisesse seguir uma carreira “científica” era o ingresso em um convento. Em 1851 o monge Gregor foi enviado para cursar a Universidade de Viena. Retornou em 1853 como professor de física, acumulando as funções de hortelão e jardineiro da abadia.



O primeiro laboratório de genética! Jardim de Mendel em foto de 1920.



Entre 1856 e 1863 Mendel conduziu experimentos de hibridização genética na ervilha Pisum sativum (e em abelhas), analisando mais de 28 mil plantas. Em 8 de fevereiro e 8 de março de 1865, teve oportunidades de apresentar seus resultados na Sociedade dos Naturalistas de Brünn e o texto foi publicado no ano seguinte (mas com data de 1865) nos Anais da Sociedade. Eleito abade logo depois, Mendel ficou absorvido com tarefas administrativas e brigas com o governo a respeito de impostos, praticamente abrindo mão de seus interesses científicos. Permaneceu no mosteiro até sua morte em 1884, aos 61 anos.

Certamente o charme dessa biografia é zero! A menos que fizesse um esforço para ler cuidadosamente o trabalho de Mendel, ninguém conseguiria apreciar a magnitude de seu gênio. Mas por que fazer esse esforço? Quem imaginaria que os segredos mais fundamentais da biologia estariam contidos em um artigo em alemão com o título insípido e hermético de “Experimentos sobre a hibridização das plantas”?

Ignorado em vida como grande cientista, Mendel sofreu ainda uma campanha de difamação após a festiva e explosiva redescoberta de seus trabalhos em 1900 . As acusações de que os seus resultados eram “bons demais” para serem verdadeiros poderiam ter passado despercebidas, não fosse o fato de o coro dos maledicentes ser liderado pelo legendário Sir Ronald A. Fisher (1890-1982), um dos pais da estatística e da genética de populações, importante figura da ciência inglesa no século 20.

Sete caracteres, sete cromossomos
Dois aspectos do trabalho de Mendel foram destacados por Fisher e outros críticos como altamente suspeitos: o número e natureza de caracteres que ele estudou e as proporções fenotípicas observadas em seus experimentos. Com relação aos primeiros, Mendel examinou sete caracteres diferentes e observou segregação independente entre eles.

Antes de continuar, vale a pena lembrar que o genoma da ervilha Pisum sativum tem sete cromossomos. Seria uma coincidência extraordinária Mendel ter escolhido a priori sete características fenotípicas unilocais, todas localizadas em cromossomos diferentes, o que lhes garantiria segregação independente. Com base neste raciocínio, alguns sugeriram então que o mais provável era que Mendel tivesse trabalhado com um número maior de caracteres e descartado os que apresentaram distorções de segregação por estarem presentes no mesmo cromossomo e ligados. Assim, começaram a soprar as brisas da calúnia que tendem a crescer e a se transformar em furacões (estou a pensar aqui na deliciosa ária La calunnia è un venticello , da ópera Barbeiro de Sevilha , de Rossini).

Para mim, essas dúvidas foram muito bem resolvidas em uma carta publicada no periódico Nature em 1975 por Stig Blix, um geneticista sueco que naquela época estava trabalhando em Piracicaba (SP), no Centro de Energia Nuclear na Agricultura. Blix mostrou que, dos sete caracteres estudados por Mendel, dois estavam no cromossomo 1, três no cromossomo 4, um no 5 e outro no 7.

Por que, então, não houve distorções ocasionadas pela ligação? Segundo Blix, os dois genes no cromossomo 1 e dois dos três no cromossomo 4 estão tão distantes um do outro que se segregam independentemente. Apenas um dos pares poderia ter apresentado ligação, mas aparentemente Mendel nunca estudou a segregação deles. Assim, a meu ver, Mendel fica completamente inocentado da primeira acusação de fraude.

O paradoxo do “bom demais”


Exemplar dos Anais da Sociedade de Naturalistas de Brünn com a o artigo de Mendel. Havia uma cópia dessa revista na biblioteca de Darwin, mas o artigo de Mendel ainda estava com as páginas pristinamente fechadas, o que demonstra que não havia sido lido.



Sir Ronald A. Fisher analisou os dados combinados de Mendel usando um teste estatístico chamado qui-quadrado e achou que eles eram ajustados demais, ou seja, era extremamente improvável que Mendel tivesse encontrado aqueles resultados puramente ao acaso. Em 1937 ele publicou um artigo concluindo que Mendel, ou algum assistente, havia falsificado os dados. Considerando-se a importância e influência de Fisher, não é surpresa que essa acusação tenha se difundido pela comunidade genética, sendo mesmo mencionada em vários livros-texto até hoje.

Entretanto, como demonstrado em 1984 por Ira Pilgrim em um breve artigo , o grande matemático inglês cometera um erro lógico! Fisher havia incorrido em uma versão estatística da falácia ex-post-facto , que consiste em se conscientizar sobre a baixa probabilidade de um evento depois de ele ter ocorrido e a partir daí fazer inferências retrospectivas sobre suas possíveis causas!

Por exemplo, imagine que você esteja em uma roda de pôquer e alguém receba “de cara” um royal straight flush (10-J-Q-K-A de um mesmo naipe). Imediatamente você se levanta e declara: a probabilidade de isto ocorrer é de apenas 0,0000015, portanto deve ter havido fraude! Esse comportamento seria extremamente ilógico, para não dizer antiesportivo. Cada jogador recebe um conjunto de cartas e qualquer conjunto de cartas específico é igualmente improvável a priori !

A probabilidade de um bilhete específico ser premiado na Loteria Federal também é baixíssima, e mesmo assim toda semana um bilhete é premiado! Você não pode acusar o ganhador da loteria de desonestidade só pela baixa probabilidade inicial de seu bilhete vir a ser sorteado! De novo as acusações contra Mendel caem por terra.

Uma versão bastante comum desta mesma falácia ex-post-facto refere-se à baixíssima probabilidade da emergência espontânea da vida na Terra e de sua evolução por mecanismos naturais até o aparecimento do Homo sapiens . Postula-se, então, a existência de uma deidade que tenha dirigido o processo. Esse tipo de argumento falacioso é freqüentemente invocado contra a teoria da evolução, o que nos leva de volta a Darwin.

Mendel e Darwin
Mendel era grande admirador de Darwin e leu praticamente toda a sua obra. Ainda há na biblioteca do mosteiro de Brünn uma cópia da Origem das espécies (segunda edição, em alemão, de 1863) cheia de anotações marginais feitas por Mendel. Por outro lado, não existe evidência de que Darwin sequer soubesse da existência de Mendel. O exemplar dos Anais da Sociedade de Naturalistas de Brünn que continha o artigo “Experimentos sobre a hibridização das plantas” de Mendel foi encontrado na biblioteca de Darwin após a sua morte, mas as folhas duplas típicas das publicações antigas (que vinham fechadas e precisavam ser cortadas com uma espátula) não haviam nem sido abertas para leitura...


Sergio Danilo Pena
Professor Titular do Departamento de Bioquímica e Imunologia
Universidade Federal de Minas Gerais
09/03/2007
User avatar
tgarcia
Mestre Saidero
Mestre Saidero
 
Posts: 315
Joined: 01 Dec 2003, 22:40
Location: Estamos aí...

Postby junior » 22 Mar 2007, 11:04

22/03/2007 - 10h14
Cérebro tem área ligada à moral, aponta pesquisa
RAFAEL GARCIA
da Folha de S.Paulo

Para agir de maneira ética, basta pensar de maneira racional ou é preciso se deixar envolver também pelas emoções? De acordo com um estudo publicado ontem, julgamentos morais que as pessoas fazem quando estão diante de um dilema são mais emocionais do que se imaginava --sinal de que a moral não é baseada só na cultura e faz parte da natureza humana.

Para lidar com essa questão, um grupo liderado pelo psicólogo americano Marc Hauser, da Universidade Harvard, e pelo neurologista português António Damásio, da Universidade do Sul da Califórnia (ambas nos EUA), submeteu diversos voluntários a um questionário com situações imaginárias de deixar qualquer um arrepiado.

A maior parte delas envolvia decisões do tipo "escolha de Sofia", como sacrificar um filho para salvar um grupo de pessoas. Que mãe permitiria isso?

Para tentar inferir o peso da emoção em julgamentos morais, os cientistas incluíram entre os voluntários seis pessoas que haviam sofrido lesões numa área específica do cérebro, o córtex frontal ventromedial (veja o quadro à esquerda). Entre as diversas funções dessa estrutura está a integração de sentimentos à consciência.

O resultado do experimento foi que os portadores da lesão tiveram tendência a pensar de maneira mais "utilitária". Eles escolhiam, da maneira mais fria, a decisão que prejudicasse um número menor de pessoas.

"Em alguns casos --dilemas de grande conflito moral- a emoção parece ter papel significativo nos julgamentos", explicou à Folha Michael Koenigs, colaborador de Hauser e Damásio. "Como os pacientes com a lesão que estudamos presumivelmente carecem de emoções sociais/morais apropriadas, seus julgamentos são mais baseados em considerações utilitárias do que em fatores emocionais."

Uma das questões usadas pelos cientistas envolvia uma situação imaginária na qual famílias vivendo num porão se escondiam de soldados que procuravam civis para matar. Um bebê começa a chorar, e a única maneira de calá-lo para evitar que todos sejam encontrados é tapar a respiração da criança por tempo suficiente para matá-la. O que fazer?
Para os pacientes portadores da lesão estudada, a decisão correta era matar a criança.

Sem empatia

A resposta, de certa forma, era o que os pesquisadores esperavam. "Pacientes com essa lesão exibem menos empatia, compaixão, culpa, vergonha e arrependimento", disse Koenigs, que foi autor principal do artigo que descreve o experimento hoje no site da revista "Nature".

Ao contrário do que se podia imaginar, porém, essas características não tornaram essas pessoas "más" ou "cruéis". Para situações sem dilemas, as respostas dos pacientes lesionados foram bastante semelhantes às dos voluntários sadios.

Na opinião dos cientistas, o estudo é uma forte evidência de que pensar de maneira puramente utilitarista simplesmente vai contra a natureza humana. O córtex frontal ventromedial, afinal, seria um produto da evolução que ajudou a moldar a forma como as pessoas se relacionam.

"Ele parece ser uma "parte emocional" inata do cérebro, e parece ser crítico para certos aspectos da moralidade", diz Koenigs. O pesquisador afirma, porém, que não é possível separar a influência do ambiente na ética. "A reação da maquinaria emocional com respeito a questões morais é sem dúvida moldada por forças culturais."
"Cosmologists are often in error, but never in doubt." - Lev Landau
User avatar
junior
Grão-Mestre Saidero
Grão-Mestre Saidero
 
Posts: 887
Joined: 13 Feb 2004, 11:55
Location: Sei lá... Em algum lugar com conexão a internet! :-)

Postby junior » 26 Mar 2007, 09:19

http://www.nytimes.com/2007/03/25/business/25multi.html?pagewanted=all
March 25, 2007
Slow Down, Multitaskers; Don’t Read in Traffic
By STEVE LOHR

Correction Appended

Confident multitaskers of the world, could I have your attention?

Think you can juggle phone calls, e-mail, instant messages and computer work to get more done in a time-starved world? Read on, preferably shutting out the cacophony of digital devices for a while.

Several research reports, both recently published and not yet published, provide evidence of the limits of multitasking. The findings, according to neuroscientists, psychologists and management professors, suggest that many people would be wise to curb their multitasking behavior when working in an office, studying or driving a car.

These experts have some basic advice. Check e-mail messages once an hour, at most. Listening to soothing background music while studying may improve concentration. But other distractions — most songs with lyrics, instant messaging, television shows — hamper performance. Driving while talking on a cellphone, even with a hands-free headset, is a bad idea.

In short, the answer appears to lie in managing the technology, instead of merely yielding to its incessant tug.

“Multitasking is going to slow you down, increasing the chances of mistakes,” said David E. Meyer, a cognitive scientist and director of the Brain, Cognition and Action Laboratory at the University of Michigan. “Disruptions and interruptions are a bad deal from the standpoint of our ability to process information.”

The human brain, with its hundred billion neurons and hundreds of trillions of synaptic connections, is a cognitive powerhouse in many ways. “But a core limitation is an inability to concentrate on two things at once,” said René Marois, a neuroscientist and director of the Human Information Processing Laboratory at Vanderbilt University.

Mr. Marois and three other Vanderbilt researchers reported in an article last December in the journal Neuron that they used magnetic resonance imaging to pinpoint the bottleneck in the brain and to measure how much efficiency is lost when trying to handle two tasks at once.

Study participants were given two tasks and were asked to respond to sounds and images. The first was to press the correct key on a computer keyboard after hearing one of eight sounds. The other task was to speak the correct vowel after seeing one of eight images.

The researchers said that they did not see a delay if the participants were given the tasks one at a time. But the researchers found that response to the second task was delayed by up to a second when the study participants were given the two tasks at about the same time.

In many daily tasks, of course, a lost second is unimportant. But one implication of the Vanderbilt research, Mr. Marois said, is that talking on a cellphone while driving a car is dangerous. A one-second delay in response time at 60 miles an hour could be fatal, he noted.

“We are under the impression that we have this brain that can do more than it often can,” observed Mr. Marois, who said he turns off his cellphone when driving.

The young, according to conventional wisdom, are the most adept multitaskers. Just look at teenagers and young workers in their 20s, e-mailing, instant messaging and listening to iPods at once.

Recently completed research at the Institute for the Future of the Mind at Oxford University suggests the popular perception is open to question. A group of 18- to 21-year-olds and a group of 35- to 39-year-olds were given 90 seconds to translate images into numbers, using a simple code.

The younger group did 10 percent better when not interrupted. But when both groups were interrupted by a phone call, a cellphone short-text message or an instant message, the older group matched the younger group in speed and accuracy.

“The older people think more slowly, but they have a faster fluid intelligence, so they are better able to block out interruptions and choose what to focus on,” said Martin Westwell, deputy director of the institute.

Mr. Westwell is 36, and thus, should be better able to cope with interruptions. But he has modified his work habits since completing the research project last month.

“I check my e-mail much less often,” he said. “The interruptions really can throw you off-track.”

In a recent study, a group of Microsoft workers took, on average, 15 minutes to return to serious mental tasks, like writing reports or computer code, after responding to incoming e-mail or instant messages. They strayed off to reply to other messages or browse news, sports or entertainment Web sites.

“I was surprised by how easily people were distracted and how long it took them to get back to the task,” said Eric Horvitz, a Microsoft research scientist and co-author, with Shamsi Iqbal of the University of Illinois, of a paper on the study that will be presented next month.

“If it’s this bad at Microsoft,” Mr. Horvitz added, “it has to be bad at other companies, too.”

In the computer age, technology has been seen not only as a factor contributing to information overload but also as a tool for coping with it. Computers can help people juggle workloads, according a paper presented this month at a conference at the National Bureau of Economic Research. The researchers scrutinized the work at an unnamed executive recruiting firm, including projects and 125,000 e-mail messages. They also examined the firm revenues, people’s compensation and the use of information technology by the recruiters.

The recruiters who were the heaviest users of e-mail and the firm’s specialized database were the most productive in completing projects. “You can use the technology to supplement your brain and keep track of more things,” said Erik Brynjolfsson of the Sloan School of Management at the Massachusetts Institute of Technology and a co-author of the paper, along with Sinan Aral of the Stern School of Business at New York University, and Marshall Van Alstyne of Boston University.

But the paper also found that “beyond an optimum, more multitasking is associated with declining project completion rates and revenue generation.”

For the executive recruiters, the optimum workload was four to six projects, taking two to five months each.

The productivity lost by overtaxed multitaskers cannot be measured precisely, but it is probably a lot. Jonathan B. Spira, chief analyst at Basex, a business-research firm, estimates the cost of interruptions to the American economy at nearly $650 billion a year.

That total is an update of research published 18 months ago, based on surveys and interviews with professionals and office workers, which concluded that 28 percent of their time was spent on what they deemed interruptions and recovery time before they returned to their main tasks.

Mr. Spira concedes that the $650 billion figure is a rough estimate — an attempt to attach a number to a big problem. Work interruptions will never — and should not — be eliminated, he said, since they are often how work is done and ideas are shared. After all, one person’s interruption is another’s collaboration.

The information age is really only a decade or two old in the sense of most people working and communicating on digital devices all day, Mr. Spira said. In the industrial era, it took roughly a century until Frederick Winslow Taylor in 1911 published his principles of “scientific management” for increasing worker productivity.

“We don’t have any equivalent yet for the knowledge economy,” Mr. Spira said.

But university and corporate researchers say they can help. Brain scans, social networking algorithms and other new tools should help provide a deeper understanding of the limits and the potential of the human brain, they said. That will teach workers in groups how to manage the overload of digital communications efficiently.

A new organization, the Institute for Innovation and Information Productivity, whose sponsors include Hewlett-Packard, Microsoft and Johnson & Johnson, has been created to sponsor such research. It provided money for the recent research project at Oxford’s Institute for the Future of the Mind, for example.

Further research could help create clever technology, like sensors or smart software that workers could instruct with their preferences and priorities to serve as a high-tech “time nanny” to ease the modern multitasker’s plight.

That is what Mr. Horvitz of Microsoft is working on. “We live in this Wild West of digital communications now,” he said. “But I think there’s a lot of hope for the future.”

Correction: March 26, 2007

A front-page article yesterday about the limits of multitasking misspelled the surname of a cognitive scientist at the University of Michigan, who said that "'Multitasking is going to slow you down, increasing the chances of mistakes." It is David E. Meyer, not Mayer.
"Cosmologists are often in error, but never in doubt." - Lev Landau
User avatar
junior
Grão-Mestre Saidero
Grão-Mestre Saidero
 
Posts: 887
Joined: 13 Feb 2004, 11:55
Location: Sei lá... Em algum lugar com conexão a internet! :-)

Postby mends » 26 Mar 2007, 10:24

eu leio no transito, inclusive na marginal
"I used to be on an endless run.
Believe in miracles 'cause I'm one.
I have been blessed with the power to survive.
After all these years I'm still alive."

Joey Ramone, em uma das minhas músicas favoritas ("I Believe in Miracles")
User avatar
mends
Saidero MegaGoldMember
Saidero	MegaGoldMember
 
Posts: 5183
Joined: 15 Sep 2003, 18:45
Location: por aí

PreviousNext

Return to Papo Sério

Users browsing this forum: No registered users and 0 guests

cron