Quantcast
Channel: Special Articles - Committee for Skeptical Inquiry
Viewing all articles
Browse latest Browse all 856

¿Eso es ciencia?

$
0
0
Carl Sagan, Father of the "Baloney Detection Kit"

La ciencia es persuasiva, y debería serlo; la ciencia es el gran detector de la realidad. Lo que parece ser una afirmación científica, a menudo no lo es. Los promotores de la pseudociencia (afirmaciones disfrazadas de ciencia que tienen poco valor científico) saben del gran valor puesto en la ciencia. Agregue un término científico, o hágalo sonar como ciencia, y el valor de una afirmación, producto o servicio será instantáneamente realzado. Esto también puede ser problemático porque el agregar la palabra ciencia a una afirmación no la transforma en ciencia.

La pseudociencia es un gran obstáculo para la racionalidad. Las creencias pseudocientíficas son más costosas de lo que la gente imagina. El tiempo y el dinero gastados en la pseudociencia son tiempo y dinero que se podrían haber gastado en actividades beneficiosas. Vivimos en una sociedad interconectada, y así las creencias pseudocientíficas de poca gente pueden influir en muchas personas. Como ejemplo, la falsa creencia de que el autismo es causado por o asociado a la vacunación temprana ha llevado a tasas de inmunidad reducidas, más niños hospitalizados, y en algunos casos a la muerte (Stanovich et al. 2016). Como otro ejemplo, considere la extraña afición de Steve Jobs que “ignoró a sus médicos luego de que le informaran de su cáncer de páncreas y postergó una cirugía nueve meses mientras siguió dietas frutales no comprobadas, consultó a un vidente y se sometió a la falaz hidroterapia” (Stanovich et al. 2016,192).

El Kit de detección de charlatanería

El estímulo para escribir el Kit de Detección de charlatanería fueron las sugerencias previas hechas por Carl Sagan (1996), Lilienfeld et al. (2012) y Shermer (2001). Este Kit se refiere a las charlatanería en el sentido de “disparate científico”. En el sentido que se una aquí, charlatanería se utiliza como sinónimo de pseudociencia. No hay un único criterio para distinguir ciencia de pseudociencia, pero es posible identificar indicadores, o signos de advertencia. A mayor número de signos de advertencia, mayor es la probabilidad de que la afirmación sea una tontería.

Indicador de charlatanería: las afirmaciones no han sido verificadas por una fuente independiente.

Quienes promueven charlatanería afirman frecuentemente que poseen un conocimiento especial, descubrimientos específicos que solo ellos conocen. Estos hallazgos muchas veces se ven reflejados en expresiones como “descubrimientos revolucionarios”, “lo que los científicos no quieren que usted sepa”, “lo que solo unos pocos han descubierto” y otras por el estilo. Estos hallazgos no se someten a la crítica o a la reproducción. Cuando se llevan a cabo estudios, es imperativo que los investigadores operacionalicen (que provean una precisa definición operacional usada para manipular o medir una variable) variables, de manera que los detalles se puedan criticar y reproducir. Los acientíficos no se preocupan por ello. Si un hallazgo no puede ser reproducido tenemos un gran problema, y resulta irrazonable considerar un solo hallazgo como evidencia. También resulta problemático cuando solo aquellos que realizan en descubrimiento original lo han reproducido con éxito.

Indicador de charlatanería: el demandante solo ha buscado evidencia confirmatoria

El sesgo de confirmación es un error cognitivo (sesgo cognitivo) definido como la tendencia a buscar evidencia confirmatoria ignorando la no-confirmatoria (Gilovich 1991). La mayoría de la gente tiene tendencia a buscar evidencia que apoye (sus hallazgos) ignorando (o sin buscar demasiado) la evidencia no-confirmatoria. Una característica importante del pensador científico es la tendencia a buscar evidencia no-confirmatoria. Aquellos que promueven el charlatanería ni deben estar al tanto de la evidencia no-confirmatoria, ya que no tienen interés en ese tipo de información. La ciencia está estructurada para minimizar el sesgo de confirmación. El difunto Richard Feynman (Premio Nobel de Física) sugería que la ciencia es un conjunto de procesos que detectan el auto-engaño (Feynman 1999). La ciencia nos ayuda a asegurarnos de que no nos engañamos.


This article was originally available in English.
Click here to read it.


Indicador de charlatanería: las creencias y sesgos personales conducen a las conclusiones

Las afirmaciones disparatadas están frecuentemente influenciadas por los sesgos y creencias personales. Los científicos reconocen sus sesgos y creenciaspersonales y usan procesos científicos para minimizar los efectos. También, como lo hacen los pseudocientíficos, los científicos buscan evidencia confirmatoria. “En algún punto, usualmente durante el sistema de revisión por pares (aunque sea informalmente, cuando uno ve que los colegas leen un manuscrito antes de que sea entregado para su publicación, o formalmente cuando el manuscrito es leído y criticado por colegas, o públicamente luego de que salga la edición impresa), tales sesgos y creencias son erradicados, o serechaza la publicación del artículo o libro”, decía Michael Shermer (2001, 22). Quienes promueven la charlatanería fracasan en el reconocimiento de sus sesgos (consciente o inconscientemente) y así hacen muy poco esfuerzo para prevenir esta forma de influenciar sus afirmaciones.

Indicador de charlatanería: excesiva confianza en las autoridades

Mucho de lo que aprendemos proviene de personas con autoridad (docentes, autores, padres, periodistas, etc.), y dichas autoridades a veces se equivocan. El mérito de la afirmación, independientemente de quien la hace necesita tenerse en cuenta. La autoridad puede darnos una pista de lo que es correcto, pero las autoridades son falibles. Éstas frecuentemente afirman diferentes creencias. ¿Qué autoridad está en lo correcto? Incluso las autoridades con mayor reputación son susceptibles a un rango de sesgos conscientes e inconscientes; cometen errores y a veces tienen determinados intereses, así como los que no son expertos. Carl Sagan escribió que “Las autoridades deben probar sus opiniones como cualquier otro. Esta independencia de la ciencia, su ocasional negativa a aceptar la sabiduría convencional, convierte en peligrosas las doctrinas menos auto-críticas, o con pretensiones de certidumbre” (Sagan 1996, 28). Feynman (1999, 104) agrega: “La autoridad podría dar una pista sobre lo que es la verdad, pero no es fuente de información. Tanto como sea posible, debemos ignorar la autoridad cuando las observaciones no estén de acuerdo con ella”.

La autoridad más importante en la ciencia es la evidencia.

Indicador de charlatanería: excesiva dependencia respecto de las anécotas

Las anécdotas (breves relatos personales de un evento) no son suficientes para concluir que una afirmación es verdadera. Las anécdotas son difíciles de verificar, y muchas veces no son representativas, han sido generadas por casi todos los fenómenos que puedan imaginarse y a menudo están construidas para parecer significativas cuando de hecho no lo son. Las anécdotas pueden ser útiles como hipótesis y podrían eventualmente ser consideradas como evidencia, pero no deben utilizarse excesivamente en las discusiones científicas. Desde el primer día de clases, informo a mis estudiantes que la discusión científica requiere referencias a los datos científicos. Las experiencias y opiniones personales generalmente aportan poco en las discusiones sobre ciencia, especialmente cuando no pueden ser inferidas razonablemente a partir de la literatura científica.

Indicador de charlatanería: uso de excesivas palabras o términos que suenan como “científicos”

En un intento por distinguir con precisión conceptos similares, los científicos pueden usar una jerga especializada. A veces “se abusa de esta práctica, especialmente cuando la terminología aporta técnicas sin basamento con una inmerecida respetabilidad científica” (Lilienfeld et al. 2012, 27). Aquellos que promueven la pseudociencia muchas veces usan palabras técnicas, de manera que parezcan inteligentes o cultos incluso cuando la utilización de las palabras es incorrecta. En contraste con el lenguaje científico, este léxico casi nunca tiene sentido, precisión, o ambos (Lilienfeld and Landfield 2008). Usar palabras que suenen como científicas es un dispositivo retórico poderoso. El hecho de que suenen científicas no las hace necesariamente científicas.




Referencias

  • Feynman, R. 1999. The Pleasure of Finding Things Out the Best Short Works of Richard P. Feynman. Cambridge, MA: Basic Books.
  • Gilovich, T. 1991. How We Know What Isn’t So: The Fallibility of Human Reason in Everyday Life. New York, NY: The Free Press.
  • Lilienfeld, S., R. Ammirati, and M. David. 2012. Distinguishing science from pseudoscience in school psychology: Science and scientific thinking as safeguards against human error. Journal of School Psychology 50: 7–36.
  • Lilienfeld, S., and K. Landfield. 2008. Science and pseudoscience in law enforcement: A user friendly primer. Criminal Justice and Behavior 35: 1215–1230.
  • Sagan, C. 1996. The Demon Haunted World: Science as a Candle in the Dark. New York, NY: Ballantine Books.
  • Shermer, M. 1997. Why People Believe Weird Things. New York, NY: Owl Books.
  • ———. 2001. The Borderlands of Science: Where Sense Meets Nonsense. Oxford University Press.
  • Stanovich, K., R. West, and M. Toplak. 2016. The Rationality Quotient: Toward A Test of Rational Thinking. Cambridge, MA: The MIT Press.



Jamie Hale

Jamie Hale es profesor de la facultad y asociado al Laboratorio de la Eastern Kentucky University's Cognitive Neuroscience y al Laboratorio de Percepción & Cognición. Ha publicado artículos y libros sobre una gran variedad de tópicos. Jamie es director de www.knowledgesummit.net y autor de Confiamos en la evidencia: la necesidad de la ciencia, la racionalidad y las estadísticas. Sus futuros artículos tratarán sobre los modelos para mejorar el pensamiento científico, los mitos populares, y la racionalidad en términos de la ciencia cognitiva.


Viewing all articles
Browse latest Browse all 856

Trending Articles