• Skip to main content
  • Skip to primary sidebar

Ukr Nuts

Hide Search

¿En qué nos estamos equivocando en neurociencia?

ukrnut · July 13, 2021 · Leave a Comment

En 1935, un ambicioso profesor de neurología llamado Egas Moniz se sentó entre la audiencia en un simposio sobre los lóbulos frontales , cautivado por la descripción del neurocientífico Carlyle F. Jacobsen de algunos experimentos que Jacobsen había realizado con su compañero investigador John Fulton. Jacobsen y Fulton habían dañado los lóbulos frontales de un chimpancé llamado “Becky”, y luego habían observado una transformación de comportamiento considerable . Antes, Becky había sido obstinada, errática y difícil de entrenar, pero después de la operación se volvió plácida, imperturbable y complaciente. 

Moniz ya había estado pensando en el valor terapéutico potencial de la cirugía del lóbulo frontal en humanos después de leer algunos artículos sobre los tumores del lóbulo frontal y cómo afectaban la personalidad. Creía que algunos trastornos mentales eran causados ​​por anomalías estáticas en los circuitos del lóbulo frontal. Al eliminar una parte de los lóbulos frontales, planteó la hipótesis de que también eliminaría las neuronas y las vías que eran problemáticas, y en el proceso aliviaría los síntomas del paciente. Aunque Moniz había estado considerando esta posibilidad, la descripción de Jacobsen de los cambios observados en Becky fue el ímpetu que Moniz necesitaba para probar un enfoque similar con los humanos. Lo hizo apenas tres meses después de ver la presentación de Jacobsen, y nació el procedimiento quirúrgico que se conocería como lobotomía frontal.

El procedimiento de Moniz inicialmente implicó perforar dos orificios en el cráneo de un paciente y luego inyectar alcohol puro subcorticalmente en los lóbulos frontales, con la esperanza de destruir las regiones donde residía el trastorno mental. Sin embargo, Moniz pronto recurrió a otra herramienta para la ablación: un asa de acero que llamó leucotomo (que en griego significa “cuchillo de materia blanca”), y comenzó a llamar al procedimiento leucotomía prefrontal. Aunque sus medios para evaluar la eficacia del procedimiento eran inadecuados según los estándares actuales (por ejemplo, generalmente solo monitoreaba a los pacientes durante unos días después de la cirugía), Moniz informó recuperación o mejoría en la mayoría de los pacientes que se sometieron al procedimiento. . Pronto, las leucotomías prefrontales se estaban realizando en varios países del mundo. 

La operación atrajo el interés del neurólogo Walter Freeman y del neurocirujano James Watts. Modificaron el procedimiento nuevamente, esta vez para involucrar la entrada al cráneo desde un lado usando una espátula grande. Una vez dentro del cráneo, la espátula se movió hacia arriba y hacia abajo con la esperanza de cortar las conexiones entre el tálamo y la corteza prefrontal (basado en la hipótesis de que estas conexiones eran cruciales para las respuestas emocionales y podían precipitar un trastorno cuando no funcionaban correctamente). También cambiaron el nombre del procedimiento a “lobotomía frontal”, ya que la leucotomía implicaba que solo se extraía la materia blanca y ese no era el caso con su método. 

Varios años más tarde (en 1946), Freeman hizo una modificación final al procedimiento. Abogó por usar la cuenca del ojo como punto de entrada a los lóbulos frontales (nuevamente para cortar las conexiones entre el tálamo y las áreas frontales). Como su herramienta para hacer la ablación, eligió un picahielos. El picahielo se insertó a través de la cuenca del ojo, se movió para hacer el corte y luego se retiró. El procedimiento podría realizarse en 10 minutos; el desarrollo de esta nueva “lobotomía transorbital” provocó el verdadero apogeo de la lobotomía.

La introducción de la lobotomía transorbitaria condujo a un aumento significativo en la popularidad de la operación, quizás debido a la facilidad y conveniencia del procedimiento. Entre 1949 y 1952, se realizaron alrededor de 5.000 lobotomías cada año en los Estados Unidos ( se cree que el número total de lobotomías realizadas en la década de 1970 fue entre 40.000 y 50.000 ). Watts protestó enérgicamente por la transformación de la lobotomía en un procedimiento que podría realizarse en una visita rápida al consultorio, y realizado por un psiquiatra en lugar de un cirujano, nada menos, lo que provocó que él y Freeman rompieran su relación.

Freeman, sin embargo, no se desanimó; se convirtió en un ferviente promotor de la lobotomía transorbitaria. Viajó por los Estados Unidos, deteniéndose en asilos mentales para realizar la operación en cualquier paciente que pareciera elegible y para capacitar al personal para realizar la cirugía después de que él se mudara. Se cree que el propio Freeman realizó o supervisó unas 3.500 lobotomías; sus pacientes incluyeron varios menores y un niño de 4 años (que murió 3 semanas después del procedimiento). 

Eventualmente, sin embargo, la popularidad de la lobotomía transorbitaria comenzó a desvanecerse. Uno quisiera pensar que esto sucedió porque la gente reconoció lo bárbaro que era el procedimiento (junto con el hecho de que el enfoque se basaba en una lógica científica algo endeble). Sin embargo, las verdaderas razones para abandonar la operación fueron más pragmáticas. La caída de la lobotomía comenzó con algunas preguntas sobre la efectividad de la cirugía, especialmente en el tratamiento de ciertas condiciones como la esquizofrenia. También se reconoció que algunos tipos de cognición como la motivación, la espontaneidad y el pensamiento abstracto sufrieron irreparablemente por el procedimiento. Y el último clavo en el ataúd de la lobotomía fue el desarrollo de medicamentos psiquiátricos como la clorpromazina, que por primera vez les dio a los médicos una opción farmacológica para casos intratables de trastornos mentales. 

Ahora es fácil para nosotros ver la práctica de la lobotomía como nada menos que brutalidad, y burlarnos de lo que parece una explicación científica tenue de por qué el procedimiento debería funcionar. Sin embargo, es importante considerar estos temas en la historia de la ciencia en el contexto de su época. En una época en la que no existían fármacos psiquiátricos efectivos, las intervenciones psicoquirúrgicas se consideraban la “ola del futuro”. Ofrecieron una posibilidad esperanzadora para el tratamiento de trastornos que a menudo eran incurables y potencialmente debilitantes. Y aunque el enfoque de la lobotomía parece demasiado poco selectivo (lo que significa que un daño cerebral tan grave no afectaría solo una facultad mental) para nosotros ahora, la idea de que la disminución de la actividad del lóbulo frontal podría reducir la agitación mental en realidad se basaba en la información científica disponible. literatura de la época.

Aún así, está claro que la decisión de intentar tratar los trastornos psiquiátricos infligiendo un daño cerebral significativo representó una falla de lógica en múltiples niveles. Cuando hablamos de neurociencia hoy en día, a menudo asumimos que nuestros días de errores tan atroces han terminado. Y aunque ciertamente hemos progresado desde la época de las lobotomías (especialmente en las salvaguardas que protegen a los pacientes de tratamientos peligrosos y no probados), no estamos tan alejados temporalmente de este sórdido momento en la historia de la neurociencia. Hoy en día, todavía se desconoce más sobre el cerebro de lo que se sabe y, por lo tanto, es de esperar que sigamos cometiendo errores significativos en la forma en que pensamos sobre la función cerebral, los métodos experimentales en neurociencia y más.

Algunos de estos errores pueden deberse simplemente a un enfoque humano natural para comprender problemas difíciles. Por ejemplo, cuando nos encontramos con un problema complejo, a menudo primero intentamos simplificarlo ideando una forma sencilla de describirlo. Una vez que se alcanza una apreciación básica, agregamos a este conocimiento elemental para desarrollar una comprensión más completa, y una que probablemente sea una mejor aproximación a la verdad. Sin embargo, esa conceptualización demasiado simplista del tema puede dar lugar a innumerables hipótesis erróneas cuando se utiliza para intentar explicar algo tan intrincado como la neurociencia. Y en la ciencia, este tipo de errores pueden desviar un campo durante años antes de que vuelva a su curso.

Otros errores involucran la metodología de investigación. Debido a los rápidos avances tecnológicos en neurociencia que se han producido en el último medio siglo, tenemos a nuestra disposición algunas herramientas de investigación en neurociencia realmente sorprendentes que solo habrían sido ciencia ficción hace 100 años. Sin embargo, el entusiasmo por estas herramientas ha provocado que, en algunos casos, los investigadores comiencen a utilizarlas ampliamente antes de que estemos completamente preparados para hacerlo. Esto ha resultado en el uso de métodos que aún no pueden responder las preguntas que suponemos que pueden, y nos ha proporcionado resultados que a veces no podemos interpretar con precisión. Al aceptar las respuestas que obtenemos como legítimas y asumir que nuestras interpretaciones de los resultados son válidas, podemos cometer errores que pueden confundir el desarrollo de hipótesis durante algún tiempo.

Los avances en neurociencia en el siglo XX y en el XXI han sido nada menos que alucinantes, y nuestros éxitos en la comprensión superan con creces nuestros fracasos de larga data. Sin embargo, cualquier campo científico está plagado de errores y la neurociencia no es diferente. En este artículo, discutiré solo algunos ejemplos de cómo los pasos en falso y los conceptos erróneos continúan afectando el progreso en el campo de la neurociencia.

El neurotransmisor ________________

Hoy en día, el hecho de que las neuronas utilicen moléculas de señalización como neurotransmisores para comunicarse entre sí es uno de esos conocimientos científicos ampliamente conocidos incluso por los no científicos. Por lo tanto, puede ser un poco sorprendente que este entendimiento tenga menos de 100 años. Fue en 1921 cuando el científico alemán Otto Loewi demostró por primera vez que, cuando se estimula, el nervio vago libera una sustancia química que puede afectar la actividad de las células cercanas. Varios años más tarde, Henry Dale aisló esa sustancia y determinó que era acetilcolina (en ese momento, una sustancia que ya había sido identificada, pero no como un neurotransmisor). No fue hasta mediados del siglo XX, sin embargo, quese aceptó ampliamente que los neurotransmisores se usaban en todo el cerebro . El descubrimiento de otros neurotransmisores y neuropéptidos estaría disperso a lo largo de la segunda mitad del siglo XX.

Por supuesto, cada vez que se descubre un nuevo neurotransmisor (u otra molécula de señalización como un neuropéptido), una de las primeras preguntas que los científicos quieren responder es “¿cuál es su papel en el cerebro?” El enfoque para responder a esta pregunta generalmente implica cierto grado de simplificación, ya que los investigadores parecen buscar una función primordial que pueda usarse para describir el neurotransmisor. Como resultado, a menudo la primera función realmente intrigante que se descubre para un neurotransmisor se convierte en una forma de definirlo.

Gradualmente, las funciones descubiertas para el neurotransmisor se vuelven tan diversas que ya no es racional asignarle una función principal, y los investigadores se ven obligados a revisar sus explicaciones iniciales de la función del neurotransmisor incorporando nuevos descubrimientos. A veces, más tarde se descubre que la función original vinculada al neurotransmisor ni siquiera coincide bien con las tareas de las que el químico es realmente responsable en el cerebro. Sin embargo, puede ser difícil convencer a las personas de que olviden la idea de que el neurotransmisor tiene una función principal. Esto se convierte en un problema porque esa conceptualización inexacta puede llevar a años de investigación en busca de evidencia para respaldar un rol particular para el neurotransmisor, mientras que ese rol hipotético puede ser malinterpretado, o completamente erróneo. 

El neuropéptido oxitocina proporciona un buen ejemplo de este fenómeno. La historia de la oxitocina comienza con el mismo Henry Dale mencionado anteriormente. En 1906, Dale descubrió que los extractos de glándula pituitaria de buey podían acelerar las contracciones uterinas cuando se administraban a una variedad de mamíferos, incluidos gatos, perros, conejos y ratas. Este descubrimiento pronto condujo a la exploración del uso de extractos similares para ayudar en el parto humano ; se descubrió que podrían ser especialmente útiles para facilitar el trabajo de parto que progresaba lentamente. Sus efectos sobre el parto serían donde la oxitocina obtuvo su nombre, que se deriva de las palabras griegas para “nacimiento rápido”. 

El uso clínico de la oxitocina no se generalizó hasta que los investigadores pudieron sintetizar la oxitocina en el laboratorio. Pero después de que eso ocurriera en la década de 1950, la oxitocina se convirtió en el agente más utilizado para inducir el parto en todo el mundo (vendido bajo los nombres comerciales Pitocin y Syntocinon). Sin embargo, a pesar del hecho de que la oxitocina juega un papel tan importante en un porcentaje significativo de embarazos en la actualidad, la gran mayoría de las investigaciones y noticias relacionadas con la oxitocina en las últimas décadas han involucrado funciones muy diferentes para la hormona: amor, confianza y social. vinculación

Esta línea de investigación se remonta a la década de 1970 cuando los investigadores descubrieron que la oxitocina alcanzaba objetivos en todo el cerebro, lo que sugiere que podría desempeñar un papel en el comportamiento. Poco después, los investigadores descubrieron que las inyecciones de oxitocina podían incitar a las ratas hembra vírgenes a exhibir comportamientos maternales como la construcción de nidos. Luego, los investigadores comenzaron a explorar la posible participación de la oxitocina en una variedad de interacciones sociales que van desde el comportamiento sexual hasta la agresión. A principios de la década de 1990, surgieron algunos descubrimientos sobre la contribución potencial de la oxitocina a la formación de lazos sociales a partir de una especie poco común para usar como tema de investigación: el campañol de la pradera.

campañoles de la pradera.  Imagen cortesía de thenerdpatrol, (prairie campañoles omsi).

topillos de pradera. Imagen cortesía de thenerdpatrol, (prairie voles omsi).

El campañol de la pradera es un pequeño roedor norteamericano que se parece a un cruce entre una tuza y un ratón. Son animales algo anodinos, excepto por una característica inusual de su vida social: forman lo que parecen ser principalmente relaciones monógamas a largo plazo con campañoles del sexo opuesto. Esto no es común entre los mamíferos, ya que se estima que solo entre menos del 3% y menos del 5% de las especies de mamíferos muestran evidencia de monogamia . 

Una especie de roedor monógamo crea una oportunidad interesante para estudiar la monogamia en el laboratorio. Los investigadores descubrieron que las hembras de campañol de la pradera comienzan a mostrar preferencia por un macho, una preferencia que puede conducir a un apego a largo plazo, después de pasar solo 24 horas en la misma jaula que el macho. También se observó que la administración de oxitocina hacía más probable que las hembras desarrollaran este tipo de preferencia por un campañol macho, y el tratamiento con un antagonista de la oxitocina lo hacía menos probable . Por lo tanto, se reconoció que la oxitocina desempeñaba un papel crucial en la formación de vínculos sociales heterosexuales en el campañol de la pradera, un descubrimiento que ayudaría a lanzar un torrente de investigaciones sobre la participación de la oxitocina en los vínculos sociales y otras conductas prosociales.

Cuando los investigadores se alejaron de los roedores como los campañoles de la pradera para intentar comprender el papel que podría desempeñar la oxitocina en los humanos, los hallazgos de la investigación que sugerían que la oxitocina actuaba para promover emociones y comportamientos positivos en las personas comenzaron a acumularse. Se encontró que la administración de oxitocina, por ejemplo,  aumenta la confianza . Se observó que las personas con niveles más altos de oxitocina mostraban una mayor empatía . Se descubrió que la administración de oxitocina hace que las personas sean más generosas y promueve la fidelidad en las relaciones a largo plazo . Un estudio incluso encontró que acariciar a un perro estaba asociado con un aumento en los niveles de oxitocina, tanto en humanos como en perros. Debido a la gran cantidad de resultados de estudios que indican un efecto positivo de la oxitocina en la socialización, la hormona ganó una colección de nuevos apodos que incluyen la hormona del amor, la hormona de la confianza e incluso la hormona del abrazo .

Emocionados por todos estos roles sociales recién descubiertos para la oxitocina, los investigadores comenzaron con entusiasmo, y tal vez impetuosamente, a explorar el papel de los déficits de oxitocina en los trastornos psiquiátricos junto con la posibilidad de corregir esos déficits con la administración de oxitocina. Un trastorno que ha ganado una cantidad desproporcionada de atención en este sentido es el trastorno del espectro autista o autismo. Los déficits de oxitocina parecían ser una explicación lógica para el autismo, ya que el deterioro social es una característica definitoria del trastorno, y la oxitocina parecía promover un comportamiento social saludable. Sin embargo, cuando los investigadores comenzaron a profundizar en la relación entre los niveles de oxitocina en la sangre y el autismo, no encontraron lo que parecía ser una relación directa. Sin inmutarse, los investigadores exploraron la administración intranasal de oxitocina, que consiste en rociar el neuropéptido en las fosas nasales, sobre los síntomas en pacientes con autismo. E inicialmente, hubo indicaciones de que la oxitocina intranasal podría ser efectiva para mejorar los síntomas del autismo (más sobre esto a continuación).

Pronto, sin embargo, algunos comenzaron a cuestionar si todo el entusiasmo que rodeaba a la “hormona de la confianza” había hecho que los investigadores tomaran decisiones apresuradas con respecto al diseño experimental, ya que todos los estudios que usaban el método intranasal de administración de oxitocina usaban un método que no era —y aún no ha sido—completamente validado. Los investigadores recurrieron al método de administración intranasal porque la oxitocina que ingresa al torrente sanguíneo no parece cruzar la barrera hematoencefálica en cantidades apreciables; sin embargo, hay indicios de que el neuropéptido llega al cerebro por vía intranasal . El problema, sin embargo, es que incluso por administración intranasal, muy poca oxitocina llega al cerebro; según una estimación, solo el 0,005 % de la dosis administrada.. Incluso cuando se utilizan dosis muy altas, la cantidad que llega al cerebro por vía intranasal no parece comparable a la cantidad de oxitocina que debe administrarse directamente en el cerebro (intracereboventricular) de un animal para influir en el comportamiento.

Pero muchos estudios han indicado un efecto, entonces, ¿qué está pasando realmente aquí? Una posibilidad es que los efectos no se deban a la influencia de la oxitocina en el sistema nervioso central, sino a que la oxitocina ingresa al torrente sanguíneo e interactúa con la gran cantidad de receptores de oxitocina en el sistema nervioso periférico ; si es cierto, esto significaría que la oxitocina exógena no está teniendo los efectos en el cerebro que los investigadores han planteado como hipótesis. Otra posibilidad más preocupante es que muchos de los estudios publicados sobre los efectos de la oxitocina intranasal sufren de problemas metodológicos como enfoques estadísticos cuestionables para analizar datos. 

De hecho, se han hecho públicas críticas a los métodos estadísticos de algunos de los artículos seminales en este campo. Una revisión reciente también encontró que los estudios de oxitocina intranasal a menudo involucran tamaños de muestra pequeños ; es más probable que los hallazgos significativos de estudios pequeños sean aberraciones estadísticas y no sean representativos de los efectos verdaderos. También es probable que toda el área de investigación esté influenciada por el sesgo de publicación., que es la tendencia a publicar informes de estudios que observan resultados significativos mientras se descuida la publicación de informes de estudios que no ven ningún efecto notable. Esto puede parecer un mal necesario, ya que es más probable que los lectores de revistas estén interesados ​​en aprender sobre nuevos descubrimientos que en experimentos que no produjeron ninguno. Sin embargo, ignorar hallazgos no significativos puede conducir a la exageración de la importancia de un efecto observado porque la literatura disponible puede parecer que no indica evidencia contradictoria (aunque tal evidencia puede existir escondida en los cajones de archivos de investigadores de todo el mundo) .

Estos posibles problemas se ven subrayados por los resultados inconsistentes de la investigación y los intentos fallidos de replicar o repetir los estudios que informaron efectos significativos de la oxitocina intranasal. Por ejemplo, uno de los estudios más influyentes sobre la oxitocina intranasal, que descubrió que la oxitocina aumenta la confianza , no se ha podido replicar varias veces. Y en muchos casos, surgieron hallazgos de investigación nulos después de que los informes iniciales indicaran un efecto significativo. Los hallazgos de los primeros estudios de autismo mencionados anteriormente, por ejemplo, han sido contradichos por múltiples ensayos controlados aleatorios (ver aquí y aquí ) realizados en los últimos años, que informaron la falta de un efecto terapéutico significativo.

No es sorprendente que, a lo largo de los años, la simple comprensión de la oxitocina como un neuropéptido que promueve las emociones y el comportamiento positivos también se haya vuelto más complicada a medida que se supo que los efectos de la oxitocina pueden no ser siempre tan halagüeños. En un estudio, por ejemplo, los investigadores observaron que la oxitocina intranasal estaba asociada con un aumento de la envidia y el regodeo . Otro estudio encontró que la oxitocina aumentaba el etnocentrismo , o la tendencia a ver la propia etnia o cultura como superior a las demás. Y en un estudio reciente, la administración intranasal de oxitocina aumentó el comportamiento agresivo . Para agregar aún más complejidad a la imagen, los efectos de la oxitocina pueden no ser los mismos en hombres y mujeres  e incluso pueden serdispares en diferentes individuos y diferentes contextos ambientales .

En un intento por explicar estos hallazgos discordantes, los investigadores han propuesto nuevas interpretaciones del papel de la oxitocina en el comportamiento social. Una hipótesis, por ejemplo, sugiere que la oxitocina participa en la promoción de la capacidad de respuesta a cualquier señal social importante, ya sea positiva (p. ej., sonreír) o negativa (p. ej., agresión); esto a veces se llama la hipótesis de la “prominencia social”. Sin embargo, a pesar de estos esfuerzos recientes para reconciliar los hallazgos aparentemente contradictorios en la investigación de la oxitocina, todavía no hay un consenso en cuanto a los efectos de la oxitocina, y la hipótesis de que la oxitocina está involucrada en el comportamiento social positivo continúa guiando la mayoría de la investigación en este campo. área.

Por lo tanto, durante años, la investigación de la oxitocina se ha centrado en un papel para el neuropéptido que, en el mejor de los casos, es sensacionalista y, en el peor, profundamente defectuoso. Y la oxitocina es solo el ejemplo más reciente de este fenómeno. En la década de 1990, la dopamina se ganó la reputación de “neurotransmisor del placer”. Poco después, la serotonina se hizo conocida como el “neurotransmisor del estado de ánimo”. Estas denominaciones se basaron en los descubrimientos más convincentes relacionados con estos neurotransmisores: la dopamina está involucrada en el procesamiento de estímulos gratificantes y la serotonina es el objetivo de los tratamientos para la depresión. 

Sin embargo, ahora que sabemos más sobre estas sustancias, está claro que estas breves definiciones de funcionalidad son demasiado simplistas. La dopamina y la serotonina no solo están involucradas en mucho más que la recompensa y el estado de ánimo, respectivamente, sino que también los roles de estos dos neurotransmisores en la recompensa y el estado de ánimo parecen ser muy complicados y poco conocidos. Por ejemplo, la mayoría de los investigadores ya no creen que la señalización de la dopamina cause placer, sino que está involucrada con otras complejidades de experiencias memorables como la identificación de estímulos importantes  en el entorno, ya sean positivos (es decir, gratificantes)  o negativos . Del mismo modo, ahora es de conocimiento común que los niveles de serotonina por sí solos no determinan el estado de ánimo. en los círculos científicos (y también está llegando a la percepción pública). Por lo tanto, estos títulos breves y fáciles de recordar son engañosos y algo inútiles.

Al asignar una función a un neurotransmisor o neuropéptido, pasamos por alto hechos importantes como la comprensión de que estos neuroquímicos a menudo tienen múltiples subtipos de receptores en los que actúan, a veces con efectos drásticamente diferentes. Y olvidamos considerar que las diferentes áreas del cerebro tienen diferentes niveles de receptores para cada neuroquímico, y pueden estar pobladas preferentemente con un subtipo de receptor sobre otro, lo que lleva a diferentes patrones de actividad en diferentes regiones del cerebro con diferentes especializaciones funcionales. Agregue a eso todos los efectos posteriores de la activación del receptor (que pueden variar significativamente según el subtipo de receptor, el área del cerebro donde se encuentra, etc.), y tiene una imagen extremadamente complicada. Tratar de resumirlo en una sola función es ridículo.

Estos enfoques simplificadores no solo dificultan una comprensión más completa del cerebro, sino que conducen a la pérdida de incontables horas de investigación y dólares de financiación de la investigación en busca de la confirmación de ideas que probablemente tendrán que ser reemplazadas eventualmente por algo más elaborado. De todos modos, este tipo de simplificación en la ciencia parece tener un propósito. Nuestros cerebros gravitan hacia estas formas sencillas de explicar las cosas, posiblemente porque sin un marco comprensible para empezar, comprender algo tan complejo como el cerebro parece una tarea hercúlea. Sin embargo, si vamos a utilizar este enfoque, al menos deberíamos hacerlo con más conciencia de nuestra tendencia a hacerlo. Al reconocer que, cuando se trata del cerebro,

Los fármacos psicoterapéuticos y los déficits que corrigen

Antes de la década de 1950, el tratamiento de los trastornos psiquiátricos era muy diferente al actual. Como se discutió anteriormente, la neurocirugía no refinada, como una lobotomía transorbitaria, se consideró un enfoque viable para tratar una variedad de dolencias que van desde el trastorno de pánico hasta la esquizofrenia. Pero la lobotomía fue solo una de varias intervenciones potencialmente peligrosas utilizadas en ese momento que generalmente hicieron poco para mejorar la salud mental de la mayoría de los pacientes. Los tratamientos farmacológicos no eran mucho más refinados y, a menudo, implicaban el uso de agentes que simplemente actuaban como fuertes sedantes para hacer que el comportamiento del paciente fuera más manejable. 

Sin embargo, el panorama comenzó a cambiar drásticamente en la década de 1950, cuando una nueva ola de fármacos se convirtió en parte del tratamiento psiquiátrico. En esta década se descubrieron los primeros antipsicóticos para tratar la esquizofrenia, los primeros antidepresivos y las primeras benzodiazepinas para tratar la ansiedad y el insomnio. Algunos se refieren a la década de 1950 como la “década dorada” de la psicofarmacología, ya las décadas siguientes como la “revolución psicofarmacológica”, ya que durante este tiempo el descubrimiento y desarrollo de fármacos psiquiátricos avanzaría exponencialmente; pronto los tratamientos farmacológicos serían el método preferido para tratar las enfermedades psiquiátricas.

El éxito de los nuevos medicamentos psiquiátricos durante la segunda mitad del siglo XX fue una especie de sorpresa porque los trastornos que se usaban para tratar estos medicamentos aún no se conocían bien. Por lo tanto, a menudo se descubrió que los medicamentos son efectivos a través de un proceso de prueba y error, es decir, probar tantas sustancias como podamos y, finalmente, tal vez encontremos una que trate esta afección. Debido a lo poco que se entendía acerca de las causas biológicas de estos trastornos, si un fármaco con un mecanismo conocido resultaba eficaz para tratar un trastorno con un mecanismo desconocido, a menudo conducía a la hipótesis de que el trastorno debe deberse a una alteración. en el sistema afectado por la droga.

Los antidepresivos sirven como un excelente ejemplo de este fenómeno. Antes de la década de 1950, la comprensión biológica de la depresión era esencialmente inexistente. La perspectiva dominante del día sobre la depresión era la psicoanalítica: la depresión era causada por conflictos internos entre facetas enfrentadas de la personalidad de uno, y generalmente se consideraba que los conflictos eran creados por la internalización de experiencias problemáticas o traumáticas por las que uno había pasado anteriormente. la vida. Los únicos enfoques de tratamiento no psicoanalíticos involucraron procedimientos poco conocidos y generalmente infructuosos, como la terapia de choque electroconvulsivo, que en realidad fue efectiva en ciertos casos ., pero potencialmente peligrosos en otros — y tratamientos como los barbitúricos o las anfetaminas, que no parecían tener como objetivo nada específico para la depresión, sino que causaban sedación o estimulación generalizadas, respectivamente.

Los primeros antidepresivos fueron descubiertos por casualidad. La historia de la iproniazida, uno de los primeros medicamentos comercializados específicamente para la depresión (la otra es la imipramina, que fue descubierta y los primeros usos clínicos casi al mismo tiempo que la iproniazida) es un buen ejemplo de la casualidad involucrada. A principios de la década de 1950, los investigadores estaban trabajando con una sustancia química llamada hidracina e investigando sus derivados en busca de propiedades antituberculosas (la tuberculosis era un flagelo en ese momento y era rutinario probar cualquier sustancia química para determinar su potencial para tratar la enfermedad). Curiosamente, es posible que los derivados de la hidracina nunca se hayan probado si los alemanes no hubieran usado hidracina como combustible para cohetes durante la Segunda Guerra Mundial, lo que provocó que se encontraran grandes excedentes de la sustancia al final de la guerra y luego se vendieran .a las compañías farmacéuticas a bajo precio.

En 1952, se probó un derivado de hidracina llamado iproniazida en pacientes con tuberculosis en el Hospital Sea View en Staten Island, Nueva York. Aunque el fármaco no parecía ser superior a otros agentes antituberculosos en el tratamiento de la tuberculosis, se observó un efecto secundario extraño en estos ensayos preliminares: los pacientes que tomaron iproniazida mostraron un aumento de la energía y mejoras significativas en el estado de ánimo. Un investigador informó que los pacientes estaban “bailando en los pasillos aunque tenían agujeros en los pulmones”. Aunque al principio se pasó por alto en gran medida como “efectos secundarios” del tratamiento con iproniazida, finalmente los investigadores se interesaron en el efecto de mejora del estado de ánimo del fármaco en sí mismo; antes del final de la década, el medicamento se usaba para tratar pacientes con depresión. 

Casi al mismo tiempo que se descubrieron los primeros fármacos antidepresivos, se estaba desarrollando una nueva técnica llamada espectrofotofluorimetría . Esta técnica permitió a los investigadores detectar cambios en los niveles de neurotransmisores llamados monoaminas (por ejemplo, dopamina, serotonina, norepinefrina) después de la administración de fármacos (como iproniazida) a animales. La espectrofotofluorimetría permitió a los investigadores determinar que la iproniazida y la imipramina tenían un efecto sobre las monaminas. En concreto, la administración de estos antidepresivos se relacionó con un aumento de los niveles de serotonina y norepinefrina.

Este descubrimiento condujo a la primera hipótesis biológica de la depresión , que sugería que la depresión es causada por deficiencias en los niveles de serotonina y/o norepinefrina. Al principio, esta hipótesis se centró principalmente en la norepinefrina y se conoció como la ” hipótesis noradrenérgica de la depresión”. Más tarde, sin embargo, debido en parte a la supuesta eficacia de los fármacos antidepresivos desarrollados para atacar más específicamente el sistema de la serotonina, el énfasis se pondría más en el papel de la serotonina en la depresión, y la “hipótesis de la depresión de la serotonina” se convertiría en la punto de vista más ampliamente aceptado de la depresión.

La hipótesis de la serotonina continuaría siendo respaldada no solo por la comunidad científica, sino también, gracias en gran parte a la frecuente referencia a un mecanismo serotoninérgico en los anuncios farmacéuticos de antidepresivos , por el público en general. Guiaría el desarrollo de fármacos y la investigación durante años. Sin embargo, a medida que la hipótesis de la serotonina estaba llegando a su apogeo, los investigadores también estaban descubriendo que no parecía contar toda la historia de la etiología de la depresión.

Estaban surgiendo varios problemas con la hipótesis de la serotonina. Una fue que los medicamentos antidepresivos tardaron semanas en producir un beneficio terapéutico, pero sus efectos sobre los niveles de serotonina parecían ocurrir horas después de la administración. Esto sugería que, como mínimo, algún mecanismo distinto al aumento de los niveles de serotonina estaba implicado en los efectos terapéuticos de los fármacos. También comenzaron a acumularse otras investigaciones que cuestionaban la hipótesis. Por ejemplo, no se encontró que la disminución experimental de la serotonina en humanos causara síntomas depresivos .

Ahora hay una larga lista de hallazgos experimentales que cuestionan las hipótesis de la serotonina y la noradrenérgica (de hecho, el área de investigación se enturbia aún más por la evidencia que sugiere que los medicamentos antidepresivos pueden no ser tan efectivos ). Claramente, los cambios en los niveles de monoamina son un efecto de la mayoría de los antidepresivos, pero no parece que exista una relación directa entre los niveles de serotonina o norepinefrina y la depresión. Como mínimo, debe haber otro componente en el mecanismo.

Por ejemplo, algunos han propuesto que los aumentos en los niveles de serotonina están asociados con la promoción de la neurogénesis (el nacimiento de nuevas neuronas) en el hipocampo, que es una región cerebral importante para la regulación de la respuesta al estrés. Pero recientemente, los investigadores también han comenzado a desviarse significativamente de la hipótesis de la serotonina, sugiriendo bases para la depresión que son completamente diferentes. Una hipótesis más reciente, por ejemplo, se centra en el papel del sistema de glutamato en la aparición de la depresión. 

La hipótesis de la depresión de la serotonina es solo una de las muchas hipótesis de las causas biológicas de los trastornos psiquiátricos que se formularon con base en la suposición de que el mecanismo principal de un fármaco que trata el trastorno debe corregir la disfunción principal que causa el trastorno. La misma lógica se utilizó para idear la hipótesis de la dopamina de la esquizofrenia . Y la hipótesis de baja excitación del trastorno por déficit de atención con hiperactividad. Ambas hipótesis fueron en un momento las explicaciones más comúnmente promocionadas para la esquizofrenia y el TDAH, respectivamente, pero ahora generalmente se consideran demasiado simplistas (al menos en sus formulaciones originales).

La lógica utilizada para construir tales hipótesis es algo tautológica: el fármaco A aumenta B y trata el trastorno C, por lo que el trastorno C es causado por una deficiencia en B. Omite reconocer que B puede ser solo un factor que influye en algún objetivo posterior, D, y por lo tanto, los efectos de la droga se pueden lograr de varias maneras, de las cuales B es solo una. No logra apreciar la gran complejidad del sistema nervioso y la multitud de factores que probablemente están involucrados en el inicio de la enfermedad psiquiátrica. Estos factores incluyen no solo neurotransmisores, sino también hormonas, genes, expresión génica, aspectos del medio ambiente y una extensa lista de otras posibles influencias. La complejidad de la psiquiatría probablemente significa que hay un número casi inconcebible de formas para que se desarrolle un trastorno como la depresión.

Por lo tanto, cuando simplificamos un tema tan complejo para basarlo principalmente en los niveles de un neurotransmisor, estamos cometiendo un tipo de error similar al discutido en la primera sección de este artículo, pero quizás con repercusiones aún mayores. Los errores que resultan de simplificar los trastornos psiquiátricos en enfermedades de “un neurotransmisor” son errores que afectan no solo el progreso en neurociencia, sino también la salud mental y física de los pacientes que padecen estos trastornos. A muchos de estos pacientes se les recetan medicamentos psiquiátricos con la suposición de que su trastorno es lo suficientemente simple como para solucionarlo ajustando algún “desequilibrio químico”; tal vez no sea sorprendente entonces que los medicamentos psiquiátricos sean ineficaces en un número sorprendentemente grande de pacientes. Y muchos pacientes continúan tomando esos medicamentos, a veces con un beneficio mínimo, a pesar de experimentar efectos secundarios significativos. Por lo tanto, es aún más imperativo en esta área alejarse de la búsqueda de respuestas simples basadas en mecanismos conocidos y aventurarse en aguas más intimidantes y desconocidas.

Nuestra fe en la neuroimagen funcional

A medida que se desarrollaron enfoques para crear imágenes de la actividad cerebral como la tomografía por emisión de positrones (PET) y la resonancia magnética funcional (fMRI) en la segunda mitad del siglo XX, comprensiblemente despertaron un gran entusiasmo entre los neurocientíficos. Estos métodos permitieron a la neurociencia lograr algo que alguna vez se pensó que era imposible: la capacidad de ver lo que estaba sucediendo en el cerebro (casi) en tiempo real. Al monitorear el flujo sanguíneo cerebral usando una técnica como fMRI, uno puede saber qué áreas del cerebro reciben la mayor cantidad de sangre y, por extensión, qué áreas son las más activas neuronalmente, cuando alguien está realizando alguna acción (por ejemplo, completando una tarea de memoria, pensar en un ser querido, ver imágenes de estímulos gratificantes o aversivos, etc.).

Este método de neuroimagen, que finalmente permitió a los investigadores sacar conclusiones sobre las esquivas conexiones entre estructura y función, se denominó neuroimagen funcional. Los métodos de neuroimagen funcional se han convertido, como era de esperar, en algunas de las herramientas de investigación más populares en neurociencia en las últimas décadas. La fMRI superó a la PET como herramienta preferida para la neuroimagen funcional poco después de su desarrollo (debido a una variedad de factores que incluyen una mejor resolución espacial y un enfoque menos invasivo), y ha sido el método de investigación elegido en más de 40 000 estudios publicados desde la década de 1990 .

El potencial de la neuroimagen funcional, y la resonancia magnética funcional en particular, para descubrir innumerables secretos del cerebro intrigó no solo a los investigadores sino también a la prensa popular. Los medios se dieron cuenta rápidamente de que los resultados de los estudios de fMRI podían simplificarse, combinarse con algunas imágenes coloridas de escáneres cerebrales y venderse al público como representativos de grandes avances en la comprensión de qué partes del cerebro son responsables de ciertos comportamientos o patrones de comportamiento. La simplificación de estos estudios condujo a afirmaciones increíbles de que patrones intrincados de comportamiento y emociones como la religión o los celos emanaban principalmente de un área del cerebro. 

Afortunadamente, esta ola de sensacionalismo se ha calmado un poco, ya que muchos neurocientíficos se han expresado sobre cómo este tipo de simplificación excesiva se lleva tan lejos que propaga falsedades sobre el cerebro y tergiversa las capacidades de la neuroimagen funcional. Sin embargo, el argumento en contra de la simplificación excesiva de los resultados de la resonancia magnética funcional es a menudo un argumento en contra de la simplificación excesiva en sí misma. La suposición es que la metodología no es defectuosa, pero la interpretación sí lo es. Sin embargo, cada vez más investigadores afirman que los resultados informados de los experimentos de neuroimagen no solo están listos para una mala interpretación, sino que a menudo son simplemente inexactos.

Un problema importante con la neuroimagen funcional tiene que ver con cómo se manejan los datos de estos experimentos. En fMRI, por ejemplo, el dispositivo crea una representación del cerebro al dividir una imagen del cerebro en miles de pequeños cubos tridimensionales llamados vóxeles. Cada vóxel puede representar la actividad de más de un millón de neuronas . Luego, los investigadores deben analizar los datos para determinar qué vóxeles son indicativos de niveles más altos de flujo sanguíneo, y estos resultados se utilizan para determinar qué áreas del cerebro son más activas. Sin embargo, la mayor parte del cerebro está activa en todo momento, por lo que los investigadores deben comparar la actividad en cada vóxel con la actividad en ese vóxel durante otra tarea para determinar si el flujo de sangre en un vóxel en particular es mayor durante la tarea que les interesa.

Debido al gran volumen de datos, surge un problema con la tarea de decidir si el flujo sanguíneo observado en un vóxel en particular es representativo de la actividad por encima de una línea de base. Cada imagen de resonancia magnética funcional puede constar de entre 40 000 y 500 000 vóxeles , dependiendo de la configuración de la máquina, y cada experimento involucra muchas imágenes (a veces miles), cada una tomada con un par de segundos de diferencia. Esto crea una complicación estadística llamada problema de comparaciones múltiples, que esencialmente establece que si realiza una gran cantidad de pruebas, es más probable que encuentre un resultado significativo simplemente por casualidad que si realiza solo una prueba.

Por ejemplo, si lanzas una moneda diez veces, es muy poco probable que obtengas cruz nueve veces. Pero, si lanzaste 50,000 monedas diez veces, sería mucho más probable que vieras ese resultado en al menos una de las monedas . Ese resultado del lanzamiento de una moneda es lo que, en términos experimentales, llamaríamos un falso positivo. Si está usando una moneda típica, obtener nueve cruces de diez lanzamientos no le dice nada sobre las cualidades inherentes de la moneda; es solo una aberración estadística que ocurrió por casualidad. Es más probable que ocurra el mismo tipo de cosas cuando un investigador hace millones de comparaciones (entre vóxeles activos y de referencia) involucradas en un estudio de fMRI. Solo por casualidad, es probable que algunos de ellos parezcan indicar un nivel significativo de actividad.

Imagen fMRi de salmón atlántico muerto. tomado de bennett et al. (2009).

Imagen fMRi de salmón atlántico muerto. tomado de bennett et al. (2009).

Este problema fue ejemplificado a través de un experimento realizado por un grupo de investigadoresen 2009 que involucró una resonancia magnética funcional de un salmón del Atlántico muerto (sí, el pez). Los científicos colocaron el salmón en un escáner fMRI y le mostraron al pez una colección de imágenes que mostraban a personas involucradas en diferentes situaciones sociales. Llegaron a preguntarle al salmón —de nuevo, un pez muerto— qué emoción estaban experimentando las personas en las fotografías. Cuando los investigadores analizaron sus datos sin corregir el problema de las comparaciones múltiples, observaron lo milagroso: el pez muerto parecía mostrar una actividad cerebral que indicaba que estaba “pensando” en las emociones que se retrataban en las fotografías. Por supuesto, esto no era lo que realmente estaba pasando; en cambio, fue que los falsos positivos que surgieron debido al problema de comparaciones múltiples hicieron que pareciera que estaba ocurriendo una actividad real en los peces.

El experimento del salmón muestra cuán grave puede ser el problema de las comparaciones múltiples cuando se trata de analizar datos de fMRI. El problema, sin embargo, es un problema bien conocido por ahora, y la mayoría de los investigadores lo corrigen de alguna manera cuando analizan estadísticamente sus datos de neuroimagen. Incluso hoy, sin embargo, no todos lo hacen: una revisión de 2012 de 241 estudios de fMRI encontró que los autores del 41% de ellos no informaron haber realizado ningún ajuste para tener en cuenta el problema de las comparaciones múltiples. Sin embargo, incluso cuando se realizan intentos conscientes de evitar el problema de las comparaciones múltiples, todavía existe la duda de cuán efectivos son para producir resultados confiables.

Por ejemplo, un método para lidiar con el problema de las comparaciones múltiples que se ha vuelto popular entre los investigadores de fMRI se llama agrupamiento . En este enfoque, solo cuando los grupos de vóxeles contiguos están activos juntos hay motivos suficientes para considerar que una región del cerebro está más activa que la línea de base. Parte de la razón aquí es que si un resultado es legítimo, es más probable que involucre agregados de vóxeles activos y, por lo tanto, al centrarse en grupos en lugar de vóxeles individuales, se puede reducir la probabilidad de falsos positivos. 

El problema con la agrupación en clústeres es que no siempre parece funcionar tan bien. Por ejemplo, un estudio publicado este año analizó datos de fMRI de cerca de 500 sujetos que usaban tres de los paquetes de software de fMRI más populares y encontró que un enfoque común para la agrupación aún conducía a una tasa de falsos positivos de hasta el 70%. Entonces, incluso cuando los investigadores se esfuerzan por dar cuenta del problema de las comparaciones múltiples, los resultados a menudo no parecen inspirar la confianza de que el efecto observado sea real y no solo el resultado de fluctuaciones aleatorias en la actividad cerebral. 

Esto no quiere decir que no se deba confiar en los datos de fMRI, o que no se deba usar fMRI para explorar la actividad cerebral. Más bien, sugiere que se debe tener mucho más cuidado para garantizar que los datos de fMRI se manejen adecuadamente para evitar sacar conclusiones erróneas. Desafortunadamente, sin embargo, las dificultades con la fMRI no comienzan ni terminan con el problema de las comparaciones múltiples. Muchos estudios de fMRI también sufren de tamaños de muestra pequeños . Esto hace que sea más difícil detectar un efecto real, y cuando se observa algún efecto, también significa que es más probable que sea un falso positivo. Además, significa que cuando se observa un efecto verdadero, es más probable que se exagere el tamaño del efecto. Algunos investigadores también han argumentado que la investigación de neuroimagen adolece de sesgo de publicación., lo que aumenta aún más la importancia de cualquier hallazgo significativo porque es posible que la evidencia contradictoria no esté disponible públicamente.

En general, esto sugiere la necesidad de mayor precaución cuando se trata de realizar e interpretar los resultados de los experimentos de fMRI. fMRI es una tecnología asombrosa que ofrece una gran promesa para ayudarnos a comprender mejor el sistema nervioso. Sin embargo, la neuroimagen funcional es un campo relativamente joven, y todavía estamos aprendiendo a utilizar correctamente técnicas como la fMRI. Es de esperar, entonces, como con cualquier tecnología nueva o campo desarrollado recientemente, que habrá una curva de aprendizaje a medida que desarrollamos una apreciación de las mejores prácticas sobre cómo obtener datos e interpretar resultados. Por lo tanto, mientras continuamos aprendiendo estas cosas, debemos actuar con moderación y un ojo crítico al evaluar los resultados de los experimentos de neuroimagen funcional.

********************************

El progreso de la neurociencia en los últimos siglos ha cambiado nuestra comprensión de lo que significa ser humano. Durante ese tiempo, aprendimos que la condición humana está inextricablemente conectada a esta delicada masa de tejido suspendida en el líquido cefalorraquídeo en nuestro cráneo. Descubrimos que la mayoría de las aflicciones que afectan nuestro comportamiento se originan en ese tejido, y luego comenzamos a descubrir formas de manipular la actividad cerebral, mediante la administración de diversas sustancias, tanto naturales como artificiales, para tratar esas aflicciones. Desarrollamos la capacidad de observar la actividad en el cerebro a medida que ocurre, logrando avances en la comprensión de la función cerebral que alguna vez se pensó que los humanos eran incapaces de realizar. Y hay muchas herramientas de investigación en neurociencia que aún se están perfeccionando,

Los errores cometidos en el camino son de esperar. A medida que crece una disciplina, la acumulación de conocimientos definitivos no sigue una trayectoria recta. Más bien implica una intuición precisa seguida de una búsqueda a tientas en la oscuridad durante algún tiempo antes de hacer otra deducción veraz. La neurociencia no es diferente. Aunque tenemos una tendencia a pensar muy bien de nuestro estado actual de conocimiento en el campo, es probable que en cualquier momento todavía esté infestado de errores. El objetivo no es alcanzar la perfección en ese sentido, sino simplemente permanecer consciente de la imposibilidad de hacerlo. Al reconocer que nunca sabemos tanto como creemos que sabemos, y al evaluar con frecuencia qué enfoques de la comprensión nos están desviando, es más probable que lleguemos a una aproximación a la verdad.

 

Referencias (además del texto vinculado arriba):

Finger, S. Orígenes de la Neurociencia. Nueva York, Nueva York: Oxford University Press; 1994.

López-Muñoz, F. y Álamo, C. (2009). Neurotransmisión monoaminérgica: la historia del descubrimiento de los antidepresivos desde la década de 1950 hasta la actualidad Diseño farmacéutico actual, 15 (14), 1563-1586 DOI: 10.2174/138161209788168001

Valenstein, ES. Grandes y desesperadas curas: el auge y la decadencia de la psicocirugía y otros tratamientos radicales para las enfermedades mentales. Nueva York, Nueva York: Basic Books, Inc.; 1986.

Si te ha gustado este artículo, echa un vistazo a:

Los neuromitos y la desconexión entre la ciencia y el público

Limitaciones del consenso: cómo las hipótesis ampliamente aceptadas a veces pueden dificultar la comprensión

Filed Under: articulos

Reader Interactions

Leave a Reply Cancel reply

Your email address will not be published. Required fields are marked *

Primary Sidebar

Recent Posts

  • Neurociencia de 2 minutos: nervio oculomotor (nervio craneal III)
  • Neurociencia de 2 minutos: células gliales
  • Conozca su cerebro: glándula pineal
  • Conozca su cerebro: Barrera hematoencefálica
  • Conozca su cerebro: Tracto espinotalámico

Categories

  • articulos

Copyright © 2023 · Daily Dish Pro on Genesis Framework · WordPress · Log in