Un grupo de investigadores de una universidad danesa elaboraron un modelo denominado «calculadora de la muerte», algoritmo para predecir las etapas de la vida hasta su fin y que busca mostrar los riesgos de un uso comercial de estos datos.
«Es un marco muy general que facilita predecir la vida humana. Puede predecir cualquier cosa con la condición de disponer de datos», dice a la AFP Sune Lehmann, profesor de la Universidad técnica de Dinamarca (DTU), y uno de los autores del estudio publicado en la revista Nature Computational Science. Según él, las posibilidades son infinitas.
«Podría predecir los resultados en materia de salud. Podría predecir la fertilidad o la obesidad, o tal vez quien tendrá o no cáncer. Pero podría predecir también si usted va a ganar mucho dinero», agregó.
El equipo señala que este sistema está «rodeado de cuestiones éticas» y desafíos que deben entenderse «más profundamente antes de que el modelo pueda usarse», por ejemplo, para evaluar el riesgo de un individuo de contraer una enfermedad.
Life2vec, análisis de estadísticas
En concreto, life2vec utiliza un modelo similar al ChatGPT pero en vez de tratar datos textuales, analiza estadísticas como el nacimiento, los estudios, las prestaciones sociales o los horarios de trabajo.
«Desde cierto punto de vista, la vida solo es una sucesión de acontecimientos: la gente nace, va al pediatra, a la escuela, cambia de casa, contrae matrimonio», afirma el estudio.
«Explotamos aquí esta similitud para adaptar las innovaciones del tratamiento automático del lenguaje natural al examen de la evolución y la previsibilidad de las vidas humanas con base en secuencias de acontecimientos detallados», precisa.
Se basa en datos anónimos de millones de daneses, reunidos por el Instituto Nacional de Estadísticas de este país nórdico.
Algoritmo tiene razón en 78 %
El análisis de las secuencias facilita predecir lo que seguirá hasta el fin. Sobre la muerte, el algoritmo tiene razón en 78 % de los casos, y sobre las migraciones, en 73 %.
«Con una muestra de personas de entre 35 y 65 años, se busca predecir basándose en un periodo de ocho años, de 2008 a 2016, si la persona va a morir en los próximos cuatro años, hasta 2020. El modelo hace eso muy bien, mejor que ningún otro algoritmo», dice Lehmann, quien no usa su fórmula en casos personales.
Este segmento de edad, en que los decesos por lo regular son pocos, facilita, según los investigadores, verificar la fiabilidad del programa.
Pero el instrumento no está listo para ser utilizado por el público en general. «Por ahora es un proyecto de investigación que explora el campo de las posibilidades (…), ¡y no sabemos si trata a todos de igual manera!», explica.
Todavía queda por estudiar el efecto a largo plazo, las conexiones sociales y la posibilidad de predecir el rumbo de las vidas.
Nuevo modelo de IA: contrapeso público
Para el universitario, el proyecto presenta un contrapeso científico para los algoritmos desarrollados por los gigantes como Google, Apple, Facebook, Amazon y Microsoft.
«Ellos también pueden construir modelos de ese mismo tipo, pero no los hacen públicos ni hablan de ellos», dice. «Podemos suponer que los perfeccionen solo para hacernos comprar más productos», agregó.
Para él, es «importante tener un contrapeso público y abierto para comenzar a comprender lo que se puede hacer con los datos de ese tipo».
«Este debate debe formar parte de la conversación democrática para que consideremos adónde nos lleva la tecnología y si es una evolución que deseamos», afirmó Lehmann.
¿Existen algoritmos similares?
Tecnologías similares para predecir acontecimientos vitales y comportamientos humanos ya se utilizan hoy en día en empresas tecnológicas que rastrean nuestro comportamiento en las redes sociales, nos trazan perfiles extremadamente precisos y los utilizan para predecir nuestro comportamiento e influir en nosotros.
Así lo afirma la experta en ética Pernille Tranberg, que cree que los algoritmos de este tipo ya se utilizan ciertamente en el ámbito de los seguros.
«Nos han puesto seguramente en grupos (…) y eso puede ser utilizado en contra nuestra pues nos pueden obligar a pagar un seguro más elevado, o a que nos rechacen un préstamo en el banco o el acceso a la atención médica pública pues uno morirá de todas maneras», añade.
«No hay casos de fuga de datos» personales con el Instituto Nacional de Estadísticas, y «los datos no son individualizados», subraya. Sin embargo, con el desarrollo de la inteligencia artificial, «todo se acelera».