Un paciente sufrió envenenamiento tras seguir una recomendación de ChatGPT, sustituyendo cloruro de sodio por bromuro de sodio.
Estados Unidos.-La semana pasada se informó sobre lo que parece ser el primer caso de un paciente afectado por seguir recomendaciones de salud de ChatGPT, un modelo de lenguaje impulsado por Inteligencia Artificial, que le sugirió la ingesta de bromuro de sodio.
“Un hombre de 60 años, sin antecedentes psiquiátricos ni médicos, acudió a urgencias expresando su preocupación por un posible envenenamiento por parte de su vecino”, relatan los autores del reporte publicado el pasado 5 de agosto en la revista Annals of Internal Medicine: Clinical Cases.
Inicialmente, el paciente afirmó no estar tomando ningún medicamento, ni siquiera suplementos alimenticios, según el equipo de la Universidad de Washington. Sin embargo, el paciente:
“Comentó que mantenía múltiples restricciones dietéticas y que destilaba su propia agua en casa. Se observó que tenía mucha sed, pero que se mostraba paranoico con el agua que le ofrecían”.
Aunque “sus constantes vitales y la exploración física, incluyendo la exploración neurológica, fueron normales”, los análisis de laboratorio revelaron niveles anormales de electrolitos, lo que llevó a su ingreso para “monitorización y reposición de electrolitos”.
Durante las primeras 24 horas de hospitalización, el paciente “presentó paranoia creciente y alucinaciones auditivas y visuales”, lo que motivó un “ingreso psiquiátrico involuntario por discapacidad grave” y el uso de medicación para psicosis.
Dado que la consulta fue motivada por una sospecha de envenenamiento, el equipo médico realizó un diagnóstico más amplio. Las pruebas mostraron que la falta de fosfato se debía probablemente al síndrome de realimentación, causado por la dieta vegetariana extremadamente restrictiva que el paciente describió. Además, “se le detectaron múltiples deficiencias de micronutrientes”.
Sin embargo, los síntomas psiquiátricos y el aparente exceso de iones cloruro o hipercloremia tenían otra explicación, que eventualmente condujo al equipo a descubrir la intervención de ChatGPT en el caso.
Puesto que el paciente tenía un nivel normal de sodio, se consideró que quizás no había un exceso de cloruro sino de bromuro, ya que el bromo pertenece a la misma familia química del cloro y la detección puede confundirlos. El bromismo, un síndrome tóxico, explicaría tanto los síntomas psiquiátricos como algunos detalles de las mediciones metabólicas, así como la aparición de acné facial, fatiga e insomnio.
Finalmente, el paciente compartió con el equipo médico que “después de leer sobre los efectos negativos del cloruro de sodio, o sal de mesa, en la salud, se sorprendió de que solo pudiera encontrar literatura relacionada con la reducción de sodio en la dieta”, se lee en el reporte.
“Inspirado por su experiencia en nutrición en la universidad, decidió realizar un experimento personal para eliminar el cloruro de su dieta. Durante tres meses, sustituyó el cloruro de sodio por bromuro de sodio obtenido de internet tras consultar con ChatGPT, donde había leído que el cloruro se puede sustituir por bromuro, aunque probablemente para otros fines, como la limpieza”.
El reporte aclara que el equipo médico no tuvo acceso a la conversación entre el paciente y ChatGPT, por lo que no pueden afirmar que esta le recomendó ingerir bromuro de sodio, solo que lo presentó como un sustituto del cloruro de sodio.
“Cuando le preguntamos a ChatGPT 3.5 con qué se puede sustituir el cloruro, también generamos una respuesta que incluía bromuro”, comentan los autores. “Si bien la respuesta indicó que el contexto importa, no proporcionó una advertencia sanitaria específica ni indagó sobre el motivo de nuestra solicitud, como suponemos que haría un profesional médico”.
Gradualmente, durante las tres semanas que el paciente estuvo en el hospital, sus niveles de cloruro se normalizaron y los síntomas psicóticos mejoraron al punto de no requerir el antipsicótico. Al ser dado de alta, su nivel de bromuro aún era muy elevado.