A finales del año pasado, Joseph Franklin, un profesor de la Universidad Estatal de Florida, llegó a una conclusión desalentadora: tras examinar exhaustivamente cientos de estudios sobre predicción del suicidio descubrió que no habíamos avanzado nada en los últimos 50 años. La ciencia no podía predecir el suicidio.
Pero, según parece, la inteligencia artificial tiene razones que la ciencia aún no entiende. En los últimos meses, varios proyectos están haciendo grandes avances en predecir un problema realmente muy serio. Según la OMS, cada año se suicidan 800.000 personas y esto es todo un rayo (algorítmico) de esperanza.
Los algoritmos que pueden predecir el futuro
Es curioso que el primer gran hallazgo en predicción del suicidio venga del mismo grupo de trabajo de Joseph Franklin. La segunda autora del estudio de Franklin, Jessica Ribeiro es precisamente la jefa del equipo que está desarrollando un algoritmo realmente preciso: es capaz de predecir quién va a cometer suicido en los próximos dos años con un 80 por ciento de exactitud.
Aunque el artículo aún no se ha publicado en Clinical Psychological Science, los datos a los que hemos tenido acceso muestran que cuando se usó el algoritmo se centró en pacientes de hospitales generales, el algoritmo fue capaz de tener una precisión del 92% para predecir suicidios a una semana vista.
Los resultados, a falta de replicarlos e investigarlos en profundidad son extraordinarios. El equipo de Franklin ha necesitado más de 2.000.000 de registros clínicos para conseguir entrenar al algoritmo en la detección de patrones de suicidio. Y, según la propia Ribeiro, esto no ha hecho más que empezar.
Más allá de la Universidad
Y es que, claro, uno se plantea que, si un pequeño grupo de investigadores es capaz de hacer eso con dos millones de registros médicos, ¿Qué no sería capaz de hacer una gran red social que tiene no solo muchos más perfiles, sino también muchos más datos?
Esa pregunta se han hecho en Facebook tras el incidente de Katelyn Nicole Davis, la chica de 12 años que retransmitió en directo su suicidio en la red social el año pasado. Y, como respuesta, ha comenzado a utilizar la inteligencia artificial para identificar a los miembros que pueden estar en riesgo de suicidio.
De hecho, la prevención del suicidio es la primera gran tarea de control semántico de contenidos con inteligencia artificial que está llevando a cabo en Facebook. Se está probando la herramienta en Estados Unidos y los algoritmos están desarrollándose con ayuda de expertos y organizaciones sociales. Según explicaban a la BBC, "no sólo es útil, es crítico".
En esencia, los algoritmos reconocen patrones en los contenidos que publican los usuarios y en las reacciones de sus contactos. Hablar de tristeza o dolor en determinados sentidos, podría ser una señal. Y, de la misma forma, los comentarios del tipo "¿Estás bien?" o "Estoy preocupado por ti" también lo serían.
¿Qué hacer?
Una vez el mensaje es identificado y se detecta un patrón, se envía a un equipo especializado. Aquí acaba la parte sencilla: el problema serio es qué hacer. ¿Cómo podemos intervenir para que el suicidio no llegue a cometerse?
Lo hemos hablado en otras ocasiones, la privacidad y la salud son dos principios éticos que están en constante conflicto. ¿Hasta qué punto podemos usar los datos privados que genera una persona para aconsejarle tratamientos médicos? Y más aún, ¿cómo podemos usar esas predicciones para intervenir sin perder la información por el camino?
No está de más reconocer que nos movemos en un terreno muy poco estudiado, pero si estos algoritmos consiguen tener un impacto real en nuestra vida digital, habremos dado un paso de gigante. Y estaremos a punto de vivir uno de los debates sanitarios más importantes del futuro: cómo proteger la salud y la privacidad en un mundo digitalizado.