55 La retinopatía diabética que padece el hermano de Francisca Villanueva se ha agravado hasta tal punto que ya no puede conducir por sí mismo para ir a ver a su madre, ubicada en otro estado de México. Ni siquiera para leer lo que ponga en su teléfono móvil. Precisamente este aparato es lo único que se necesita para utilizar una aplicación desarrollada tanto por ella como por Igor Garcia Atutxa, fundadores de ‘begIA’, un proyecto centrado en la detección temprana de enfermedades oculares como la que padece el hermano de Villanueva, pero también de cataratas y glaucoma. ‘begIA: Artificial Intelligence for Future Eye Health’ es el nombre completo de una iniciativa elegida como parte de la jornada ‘Spin UOC 2023’ que organiza la Universitat Oberta de Catalunya (UOC), ideada para presentar proyectos como este delante de potenciales clientes o promotores (y que, en su caso, sirva para ampliar el equipo compuesto ahora por los dos). Este toma su nombre de la palabra ojo en euskara (begia) y, aunque está en fases muy iniciales, ha podido tomar forma gracias al trabajo conjunto de este matrimonio que ha estudiado el Máster universitario online de Bioinformática y Bioestadística de la UOC y la Universitat de Barcelona (UB). Garcia cuenta a IM Ópticas que la idea tiene el principal motivo en el hermano de Villanueva y parte sobre la base de un estudio publicado el pasado marzo en la revista Nature por un equipo de investigadores de Google Health, que precisamente indagan en aplicaciones para detectar retinopatía diabética y otros diagnósticos oculares con soluciones de Deep Learning. “Nosotros, basándonos en eso, reproducimos un algoritmo que pueda detectar los diferentes casos de estas retinopatía diabética, glaucoma y cataratas. En estadios cuanto más tempranos mejor”, explica. Este es el principal objetivo de ‘begIA’: llegar lo antes posible a poner sobre aviso a un potencial paciente de que hay algún tipo de problema en sus ojos y que le mueva a acudir al profesional correspondiente para que se le realicen unos análisis más especializados. Es, también, la mayor dificultad que presenta el entrenar al algoritmo para que sea lo más preciso posible, ya que las características de un selfi no son las que se obtienen en una imagen de fondo de ojo. En un primer momento, relata García, se toma como partida una base de datos con imágenes de ojos con alguna de estas patologías para “extraer conocimiento” en forma de patrones (curvas o líneas). Una vez ha ‘aprendido’, esos valores predeterminados se cargan en la app para, cuando una persona se haga un selfi, la IA haga uso de esos datos y arroje un diagnóstico previo. Eso requiere, por el momento, de imágenes “cuanto más cercanas y con mejor resolución, mejor”, reconoce el investigador. Las fotos de alta calidad de una cámara de un móvil ya permiten incluso acceder a “un millón de entradas para el algoritmo”, lo que sería suficiente para detectar una posible anomalía en los ojos. Si bien es cierto, continúa, que esas imágenes usadas para el entrenamiento incluirán fotos cercanas, lejanas y con desviaciones (como la que hay cuando alguien se hace un selfi), “para que pueda englobar todo tipo de situaciones el algoritmo”. A más imágenes, mejores resultados, para lo que han llegado a un acuerdo con el hospital del Tecnológico de Monterrey (TEC), institución mexicana en la que Villanueva es profesora investigadora titular, para que les ayuden a obtener un banco de imágenes más extenso. Según García, quieren ampliar más aún ese espectro y por eso ya están en contacto con asociaciones de diabetes “que también suelen tener acceso a ese tipo de pacientes y de equipos” para que puedan tomar las imágenes que requiere su herramienta. SOBRE LAS POTENCIALES APLICACIONES DE BEGIA, GARCÍA DESTACA CÓMO PERMITIRÍA A LOS PACIENTES LLEGAR A LAS ÓPTICAS ANTES DE QUE “TODO ESTÉ PERDIDO” Útil para ópticos optometristas Sobre las potenciales aplicaciones de begIA, García, también estudiante del Doctorado de Ingeniería del Conocimiento y Sistemas Inteligentes en la Universidad Católica de Murcia, UCAM), destaca cómo permitiría a los pacientes llegar a las ópticas antes de que “todo esté perdido” gracias al aviso de la app. “Después, ellos, con las imágenes de fondo de ojo, van a hacer un análisis más preciso. Y la idea es hacer ese puente, entre que se percaten mucho antes del problema que puedan tener y acudan antes. Que no esperen tanto”, reitera. Próximos pasos No obstante, la mayor parte de las energías están puestas en esta fase en presentar la idea a concursos y convocatorias, con el fin de poder desarrollar la aplicación. La idea, confían sus fundadores, es que para 2024 ya se disponga de una app “lo suficientemente robusta” que permita ya constituir la empresa y “optar a más financiación”. Entretanto, hay nuevas funcionalidades en el aire pendientes de implantar en la aplicación, como un sistema de geolocalización que permita indicar (si se supera un cierto límite de probabilidad de tener alguna de estas patologías) al usuario “cuáles serían los especialistas más cercanos a la ubicación del paciente para ya ponerlos directamente en contacto”.
RkJQdWJsaXNoZXIy NTI5ODA=