Día de la Mujer en la Ciencia: Un largo camino por recorrer

Día de la Mujer en la Ciencia: Un largo camino por recorrer

En 2015, la Asamblea General de las Naciones Unidas decidió designar el 11 de febrero como el Día Internacional de la Mujer y la Niña en la Ciencia. La celebración busca conmemorar y reconocer la trayectoria de todas aquellas mujeres que han contribuido a la ciencia. ¿La razón? Si bien se trata de aportes que han probado ser indispensables para el avance de la tecnología y, con ello, de la humanidad, muchas veces sus contribuciones se han visto relegadas a lo anecdótico.

Es claro que el impacto de la pandemia ha traído consigo cifras muy poco alentadoras para las mujeres científicas, especialmente aquellas que se encontraban en los inicios de sus carreras, pero lo cierto es que la situación también ha presentado oportunidades. La gestión de Tsai Ing-wen en Taiwán; Jacinta Arden de Nueva Zelanda y Angela Merkel en Alemania se han transformado en verdaderos bastiones del liderazgo femenino en tiempos de COVID-19. Pero la lista de pendientes apenas se acorta.

"¡Es importante no desperdiciar la capacidad intelectual de la mitad de la población! Piensen en cuantos misterios más se resolverían si todas las mentes capaces que trabajan en un problema, se duplicaran e incluyeran tanto a hombres como a mujeres."

-Marla B. Sokolowski, bióloga canadiense-

Figuras como Ada Lovelace, autora del primer algoritmo codificado de la historia; Hedy Lamarr, inventora del “espectro ensanchado”, tecnología que sentaría las bases para el desarrollo del Bluetooth y Wi-Fi; Margaret Hamilton, responsable de escribir el código de vuelo para las primeras misiones Apolo de la NASA, y Grace Hopper, figura clave en el desarrollo del lenguaje de programación COBOL y responsable de acuñar el término “bug” para describir errores de computación son solo algunas de las grandes voces que han sido relegadas prácticamente al olvido. Pero ¿cómo luchar contra estas injusticias?

El rol de la mujer en la ciencia: Un camino que se sigue pavimentando

Actualmente, se estima que sólo tres de cada diez investigadores en todo el mundo son mujeres. Esta enorme diferencia tiene su origen en las primeras etapas del aprendizaje de niños y niñas, donde los primeros suelen ser incentivados a seguir el camino de las disciplinas científicas.

A esta brecha de género, se suma la indiscutible disparidad salarial. Según datos de la UNESCO, las investigaciones lideradas por mujeres reciben una remuneración menor a aquellas dirigidas por sus contrapartes masculinas. Es por esto que, como mujeres en el mundo de las ciencias y la tecnología, es nuestra responsabilidad seguir luchando y abriendo espacios que nos permitan crear mayores oportunidades para las futuras Marie Curie, Frances Allen, Radia Perlman, Katherine Johnson, Justicia Acuña y tantas otras.

 


Aprendizaje automático: Desafíos y falencias de los modelos de entrenamiento

Aprendizaje automático: Desafíos y falencias de los modelos de entrenamiento

El aprendizaje automático o aprendizaje automatizado es una rama de la Inteligencia Artificial (AI), cuyo objetivo es generar técnicas y metodologías para que las computadoras “aprendan”, de un modo similar a como lo hacen los humanos. Esta premisa, aunque podría sonar ambiciosa, hoy es la base de la gran mayoría de las soluciones IA desarrolladas por la industria.

Al interior de esta disciplina, sus investigadores buscan algoritmos y heurísticas para convertir muestras de datos en programas computacionales. Esto, sin tener que escribir los últimos explícitamente; de ahí la utilización del término “aprendizaje”. Los modelos resultantes deben ser capaces de generalizar comportamientos e inferencias para un conjunto más amplio potencialmente infinito de datos. Es decir, deben ser capaces de cierta autonomía. En pocas palabras, la construcción de un modelo de aprendizaje automático implica entrenarlo en una gran cantidad de posibilidades y luego probarlo en un montón de ejemplos similares. 

Sin embargo, la complejidad de esta tarea tiene múltiples dimensiones. Si bien antes de su aplicación el modelo en cuestión debe enfrentar una infinidad de pruebas es distintos escenarios, lo cierto es que todos éstos ocurren en un ambiente más bien controlado, donde las posibilidades de variación son mínimas. Entonces, ¿qué ocurre cuando se lleva al mundo real?

Ambiente de prueba vs. Realidad

No es ningún secreto que, incluso si un modelo específico logra un rendimiento perfecto en el laboratorio, puede presentar -y probablemente presentará- fallas en entornos reales. Esto generalmente se atribuye a una falta de coincidencia entre los datos con los que se entrenó y probó la Inteligencia Artificial (AI) y los datos que encuentra en el mundo. Por ejemplo, una IA entrenada para detectar signos de enfermedad en imágenes médicas de alta calidad claramente tendrá problemas con imágenes borrosas o fotos tomadas con una cámara de mala calidad.

Un grupo de 40 investigadores de Google ha identificado otra causa importante del fracaso común de los modelos de aprendizaje automático. Se trata de un problema conocido como "sub-especificación". El estudio señala que todo proceso de entrenamiento es capaz de producir muchos modelos diferentes e incluso todos ellos pueden llegar a pasar las pruebas finales. 

Sin embargo, la investigación señala que estos modelos diferirán en formas pequeñas y arbitrarias. Estas diferencias van a depender de elementos tales como valores aleatorios dados a los nodos en una red neuronal antes de que comience el entrenamiento, la forma en que se seleccionan o representan los datos de entrenamiento, el número de ejecuciones de entrenamiento, etc. El problema es que, estas variables generalmente se pasan por alto si no afectan el desempeño de un modelo en un ambiente de prueba. Pero el mundo real es otra historia.

Los investigadores llevaron a cabo experimentos similares con dos sistemas de PNL diferentes y tres IA médicos para predecir enfermedades oculares a partir de escáneres de retina, cáncer de lesiones cutáneas e insuficiencia renal a partir de registros de pacientes. Todos los sistemas tenían el mismo problema: los modelos que deberían haber sido igualmente precisos se comportaron de manera diferente cuando se probaron con datos del mundo real, como diferentes escaneos de retina o tipos de piel.

Buscando respuestas

Una alternativa que podría permitir a los data scientists cerrar esta brecha, es diseñar una etapa adicional al proceso de capacitación y prueba. Esto implicaría producir muchos modelos a la vez en lugar de solo uno. Para una empresa como Google, que construye e implementa grandes modelos, este esfuerzo bien podría valer la pena. Sin embargo, la cantidad de trabajo y recursos, tanto materiales como humanos, que implica esta tarea puede estar fuera del alcance de empresas más pequeñas.

 


UNIT formará parte de programa para startups patrocinado por Microsoft

UNIT formará parte de programa para startups patrocinado por Microsoft

Comenzamos el año con una excelente noticia: UNIT ha sido seleccionado para participar de un programa global diseñado especialmente para ayudar a las startups a escalar rápidamente. La propuesta, desarrollada por Microsoft, proporciona acceso a tecnologías y una red de asociados para potenciar el desarrollo comercial.

Se trata de una apuesta a nivel internacional y gratuita, la cual está dedicada a impulsar empresas emergentes B2B para que puedan expandir correctamente el alcance de sus compañías. Para ello, se entregan créditos para el uso de servicios como Azure, junto con una ruta de acceso simplificada para vender junto con Microsoft y su ecosistema global de asociados. Durante 2020, las startups participantes aseguraron más de $1.000 millones de oportunidades de ventas con un volumen promedio de transacciones de más de seis cifras.

Un nuevo desafío

La iniciativa representa una gran oportunidad para expandir el alcance de UNIT, tanto a nivel nacional como internacional. Además, este nuevo desafío se alinea con el nuestro compromiso de ser una empresa multicloud que se abre a las mejores soluciones tecnológicas disponibles en el mercado, buscando siempre el estado del arte de la tecnología para desarrollar proyectos que se adapten a las necesidades de nuestros clientes y partners.

“A través de esta colaboración, esperamos poder llevar los servicios ofrecidos por Microsoft y nuestro equipo a los desafíos reales que enfrentan las empresas en la actualidad”, comenta José Tomás Cumsille, Chief Technology Officer (CTO) de UNIT. 

El primer acercamiento a Microsoft Startups Program, se dio a través del equipo de VOYAGER, en la búsqueda de mejores herramientas para manejar datos no estructurados de texto. Entre las opciones disponibles en el mercado, los especialistas de esta solución de Inteligencia Artificial (IA), desarrollada por UNIT, encontraron que la mejor opción era el modelo entrenado por Microsoft.

“El objetivo es, gracias a este apoyo, contribuir como empresa a cerrar la brecha que existe actualmente entre la tecnología, la inteligencia artificial y los grandes problemas de la humanidad”, puntualiza Cumsille.

 


Atomic Design: una metodología para trabajar en equipo

Atomic Design: una metodología para trabajar en equipo

Diseñar y desarrollar productos de manera rápida y eficiente es una gran ventaja competitiva para cualquier empresa. Pero ¿cómo lograr este ideal cuando se trabaja con diferentes clientes y en diferentes industrias? Atomic Design podría ser la solución para este dilema.

Es probable que como desarrollador FrontEnd hayas escuchado este término al menos alguna vez. En caso contrario, no temas, ya que en este artículo cubriremos las nociones básicas para que puedas aprender a utilizarlo y aplicarlo en tu trabajo.

En términos simples, Atomic Design es una metodología creada por Brad Frost la cual se presenta como solución para el problema actual de crear interfaces que sean compatibles con la gran variedad de tamaños de pantallas que existen.

Gracias a su perspectiva con componentes individuales, pero que son parte de un todo, nos permite entender la importancia de construir sistemas de diseño. De esta forma, nos ayuda a crear productos digitales más fáciles de entender, tanto para nuestros usuarios como para del equipo de FrontEnd que debe llevarlo a la práctica.

Esquema de Atomic Design: átomo, molécula, organismos, templates y páginas

Atomic Design: Simbología y equivalencias

El origen de su nombre se debe a que los distintos componentes de un diseño particular son homologados con elementos de la química. En base a esto, es posible identificar lo siguiente:

  • Átomo: Se corresponden con los elementos indivisibles de HTML. Por ejemplo: Input, Label, Botón, etc.
  • Molécula: En la química, se trata de la unión de dos átomos. Por lo tanto, en el plano del diseño, serán dos elementos “átomos” que se unen. Por ejemplo: una barra de búsqueda que contiene un Input, un Label y un botón.
  • Organismos: Es la unión de diferentes “moléculas”, por lo tanto implicará la conjugación de distintas moléculas de nuestro diseño. A su vez, éstas contienen los elementos “átomos”. Por ejemplo: un nabab que contiene una molécula menú, una molécula barra de búsqueda, una molécula sesión, etc.

Los últimos dos elementos, si bien sus nombres no se basan en la química, son términos bastante conocidos por los desarrolladores:

  • Templates: Es donde se colocan los organismos y se articulan. De esta forma, es posible ver en perspectiva la integración entre los componentes de una manera abstracta, ya que los templates no tienen datos.
  • Pages (Páginas): Es la parte final de esta metodología, donde se le agregan datos a los templates y se puede ver una representación real de la interacción de los organismos.

Este último elemento es muy importante, ya que permite realizar pruebas a los elementos creados. Sobre este punto, es importante hacerse las siguientes preguntas para asegurarnos de considerar la perspectiva de los usuarios:

¿Cómo se verá si un usuario no tiene datos almacenados?
¿Qué pasará si el usuario no tiene una foto de perfil?
Cómo se comportan las moléculas en diferentes tamaños de pantallas (smartphone, tablets, smartTV, consolas de videojuegos, etc.)

En esta fase de pruebas es donde podemos apreciar claramente las ventajas de trabajar con Atomic Design. Gracias a que los cambios se realizan directamente en los átomos y estos afectan en cadena las moléculas, los componentes, templates y páginas, el flujo de trabajo se facilita tremendamente.

Durante mi propia experiencia utilizando Atomic Design, he podido darme cuenta de que varias personas creen que se debe usar de manera secuencial, es decir, crear primero el átomo, luego la molécula y así sucesivamente. Sin embargo, se llega a mejores resultados y mejores tiempos de desarrollo cuando se trabajan en conjunto los 5 elementos. De hecho, Frost recomienda utilizarlos de manera paralela. Otra de sus ventajas es que esta metodología se acopla muy bien en equipos compuestos por diseñadores y FrontEnd.

Esto se debe a que la aplicación de este método de trabajo permite a los componentes de diseño entregar mockups. Más tarde, en conjunto con el equipo FrontEnd, es posible analizar e identificar los elementos presentes, permitiendo su validación en diferentes resoluciones junto con diferentes contenidos. En conclusión y, en base a mi propia experiencia, te puedo asegurar que la adopción de Atomic Design es especialmente práctica cuando ya existen guías de estilos (paleta de colores, fuentes, iconos, etc.) en la organización.

Como toda metodología, su efectividad va a depender del entorno laboral e incluso el tipo de proyecto en el que te encuentres trabajando. Por eso, te recomiendo analizar las condiciones y mecánicas de trabajo actuales de tu empresa. De esta forma, podrás evaluar la compatibilidad y pertinencia de esta propuesta, permitiéndote determinar si Atomic Design es un buen match para tu equipo.


Cambio climático: ¿De qué forma la IA puede ayudarnos a frenar esta crisis global?

Cambio climático: ¿De qué forma la IA puede ayudarnos a frenar esta crisis global?

Según un estudio publicado por la revista académica Nature, los seres humanos son responsables de entre un 25% y un 40% más de la producción total de emisiones de metano de lo que se había estimado anteriormente. El metano es uno de los gases de efecto invernadero más potentes, siendo aproximadamente 28 veces más eficaz que el dióxido de carbono para atrapar el calor en la atmósfera, contribuyendo así al cambio climático. 

Por esta razón, este gas es actualmente el responsable de aproximadamente una cuarta parte del calentamiento global. Si bien es generado naturalmente por animales, volcanes y humedales, también es un subproducto de la producción de petróleo y gas. En la industria minera, esta es una problemática que también se encuentra muy presente, debido al impacto negativo de los combustibles fósiles que se utilizan.

Uso de combustible fósil: en camino a una mayor eficiencia 

En virtud del Acuerdo de París de 2015, 195 países se comprometieron a limitar el aumento de la temperatura global a 2.0 °C, e idealmente no más de 1.5 °C. Este objetivo ha motivado, en parte, la descarbonización de múltiples industrias. Este aparente cambio de mentalidad sin duda aumentará prontamente la presión de los gobiernos, los inversores y la sociedad para reducir las emisiones del sector minero.

Actualmente, esta industria es responsable del 4 al 7% de las emisiones de gases de efecto invernadero a nivel mundial. Las emisiones de CO2 generadas por las operaciones mineras y por el consumo de energía, respectivamente, ascienden al 1%. Por su parte, las emisiones fugitivas de metano de la minería del carbón se estiman entre el 3 y el 6%.

El impacto negativo de estas emisiones ha sido largamente documentado, tanto en el extranjero como en nuestro país. Durante principios de 2020, un estudio reveló que el alza en la temperatura del planeta fue parcialmente responsable por los devastadores incendios registrados en Australia. En Chile, la diversidad climática presente a lo largo del territorio se ha visto afectada en distintos aspectos, especialmente en la caída de lluvias, factor que impacta negativamente a rubros tan importantes como la agricultura.

COSMOS

UNIT, empresa dedicada al desarrollo de soluciones a través de la inteligencia artificial, recoge esta problemática a través de COSMOS. El proyecto busca optimizar el uso de combustibles de las industrias en el transporte, especialmente en el rubro minero.

La plataforma permite reducir el consumo de combustible, junto con las emisiones GHG a través de predicciones realizadas en base a modelos de inteligencia artificial. Éstos predicen el consumo, optimizan el rendimiento y detectan anomalías en el uso de combustible para asegurar un mejor uso de este recurso. La detección temprana permite, además, retroalimentar a los operadores sobre prácticas operacionales incorrectas. De esta manera,  buscando la excelencia y eficiencia operacional.

 

 


UNIT Art Lab: Una mirada a la tecnología a través del arte

UNIT Art Lab: Una mirada a la tecnología a través del arte

Desde tiempos primitivos, el arte y sus múltiples expresiones han sido herramientas para examinar, analizar y registrar lo que ocurre a nuestro alrededor. De manera similar, la ciencia ha contribuido tremendamente a comprender distintos fenómenos a través de la historia. Sin embargo, cada una de estas disciplinas pareciera estar siempre en contraposición a la otra. Hasta ahora. 

La dimensión subjetiva del arte y el carácter riguroso de la ciencia son las dos naturalezas que se unen en UNIT Art Lab. El proyecto es impulsado por UNIT, empresa dedicada al desarrollo de soluciones de inteligencia artificial y tiene por objetivo generar nuevas miradas sobre la tecnología y el destino de la vida en la Tierra.

En esta línea, las plataformas digitales nos ofrecen la posibilidad de crear espacios o entornos imaginarios que el arte tradicional apenas ha logrado explorar. Es por esto que son las protagonistas de este proyecto.

Para lograrlo, se utilizan herramientas de análisis de datos en un cruce con técnicas de las artes mediales. El resultado son distintas visualizaciones y figuras que el artista visual Sergio Mora-Díaz creó a partir de la data de más de 600 pacientes, quienes fueron monitoreados por dos años para evaluar la evolución de su sangre en base al indicador INR de coagulación sanguínea. Esto, a partir del proyecto VOYAGER impulsado por UNIT.

“Mi trabajo artístico está muy ligado al espacio y, principalmente, a la generación de experiencias. El uso de nuevas tecnologías para proponer nuevos tipos de vivencias sensoriales para las personas es una gran oportunidad de la que estoy muy contento de ser parte”, explica Mora-Díaz. 

“Gran parte de mis obras se basan en la utilización de algoritmos, es decir, datos matemáticos, para poder crear figuras geométricas o entornos interactivos, por ejemplo, a través de sensores capaces de capturar información del entorno y traducirla a luz, sonido o imagen”, puntualiza el artista.

“La inteligencia universal incluye el arte como su medio de expresión más influyente, dado que conecta y articula de diferentes maneras el pensamiento creativo, la visión y sensaciones íntimas del mundo que nos rodea. De esta manera, el Art Lab permite una llegada más allá en el pensamiento trascendente de nuestra comunidad, complementando nuestra base racional de herramientas analíticas y de software”, asegura Juan Larenas, CEO de UNIT.

Convocatoria abierta

¿Eres artista? ¿Te gustaría ser parte de este experimento? Encuentra más información en el siguiente enlace.

 

 


Inteligencia Artificial: ¿Por qué fallan los sistemas de reconocimiento facial?

Inteligencia Artificial: ¿Por qué fallan los sistemas de reconocimiento facial?

Contrario a los sistemas protegidos con contraseña, nuestra información biométrica está ampliamente disponible y es relativamente fácil de obtener. Por lo anterior, existen algunos tipos de ataques fáciles de implementar y que pueden tener éxito si no existen medidas para evitarlos. En particular, los sistemas de reconocimiento facial se pueden vulnerar utilizando uno de los siguientes métodos:

  • Una fotografía
  • Un vídeo
  • Un modelo 3D del rostro

Se han desarrollado varios métodos para enfrentar el problema de la suplantación con imágenes de rostros en sistemas de reconocimiento facial. Estos pueden ser divididos en dos enfoques: características dinámicas y  características estáticas.

Los enfoques de características dinámicas buscan detectar el movimiento en una secuencia de vídeo, analizando la trayectoria de segmentos específicos del rostro. Éstas revelan información valiosa para discriminar entre rostros reales y copias estáticas. Algunos métodos típicos son aquellos basados en la detección de párpados de ojos; gestos de cabeza y rostro (cabeceo, sonreír o mirar en diferentes direcciones); seguimiento del rostro y la mirada a través de la estimación de flujo. Estas técnicas son altamente efectivas para detectar ataques que utilizan fotos, pero pierden efectividad cuando se trata de vídeos.

Con el objetivo de aumentar el desempeño en los ataques con vídeos, se han desarrollado métodos específicos de liveness detection en vídeos. Por ejemplo, explorar la estructura 3D de los vídeos, analizar una gran cantidad de imágenes 2D con diferentes posiciones de la cabeza; usar un análisis basado en contexto para tomar ventaja de la información no-facial disponible en las muestras, como características de movimientos en la escena (como por ejemplo, movimiento en el fondo v/s primer plano). También se están usando versiones modificadas de Local Binary Patterns o LBP, para aprovechar la información temporal presente en el vídeo o analizar las texturas dinámicas en comparación con objetos rígidos como fotos y máscaras.

En búsqueda de soluciones

Una forma de enfrentar el problema es enfocarse en la detección de vida. Para esto, es necesario considerar una representación espacio-temporal que combine el aspecto facial y su dinámica. Para lograrlo, la clave está en la utilización de una representación espacio-temporal basada en LBP debido al desempeño mostrado en el modelamiento de movimiento de rostros y reconocimiento de expresiones faciales, y también en el reconocimiento de textura dinámica.

¿Cómo se detecta la suplantación en sistemas de reconocimiento facial?

El operador LBP para análisis de textura es definido como una medida de escala de grises invariante a la textura, derivado de una definición general en una vecindad local. Este es un descriptor de textura poderoso, y entre sus propiedades para aplicaciones del mundo real se destaca su poder discriminativo, simplicidad computacional y tolerancia ante cambios monotónicos en escala de grises.

El operador LBP inicialmente fue concebido para lidiar con información espacial. Sin embargo, su uso se ha ampliado a representaciones espacio temporal para análisis de textura dinámica, dando paso al operador Volume Local Binary Pattern (VLBP).

VLBP consiste en encontrar la textura dinámica en un vídeo, el cual es representado como un volumen (X, Y, T), donde X y Y denotan las coordenadas espaciales y T representa el índice del frame. Por otro lado, la vecindad de cada píxel está definida en un entorno tridimensional. El volumen de VLBP puede ser definido por planos ortogonales, dando paso a lo que se conoce como LBP-TOP o LBP Three Orthogonal Planes. Aquí se definen los planos XY, XT y YT. A partir de ellos, se extraen los mapas LBP para cada plano, denotados como XY-LBP, XT-LBP y YT-LBP y luego se concatenan para obtener la representación LBP considerando como centro un píxel del volumen , como se muestra en la figura.

En el operador LBP-TOP el radio del algoritmo LBP en el eje X es denotado Rx, en el eje Y es denotado Ry y en el eje T es denotado por Rt.

El número de puntos vecinos en los planos XY ,XT y YT es PXY, PXT y PYT, respectivamente. El tipo de operador en cada plano puede variar, estos pueden ser, patrones uniformes(u2), patrones uniformes invariantes a la rotación (rui2).

A diferencia de las fotografías, los rostros reales son objetos no rígidos con contracciones de los músculos faciales que resultan en deformaciones temporales. Por ejemplo, párpados y labios. Por lo tanto, se asume que los patrones específicos de movimiento facial deberían ser detectados cuando un humano vivo es observado con una cámara frontalmente. El movimiento de una fotografía frente a una cámara causa patrones de movimiento distintivos que no describen el mismo patrón que una cara genuina.

En la figura se presenta la metodología anti-spoofing, la cuál consta de los siguientes etapas:

Diagrama de bloques de método anti-spoofing basado en LBPTOP.
  1. Cada frame de la secuencia original es convertido a escala de grises y pasado a través de un detector de rostros.
  2. Los rostros detectados son geométricamente normalizados a 64 × 64 píxeles. Esto, con el objetivo de reducir el ruido del detector de rostros, la misma bounding box es utilizada para cada set de frames usado en el cálculo con el operador LBP-TOP.
  3. El operador LBP es aplicado en cada plano (XY,XT y YT) y los histogramas son calculados y luego concatenados.
  4. Se utiliza un clasificador binario para determinar cuáles son datos reales.

Cada uno de los vídeos, ya sea de ataques o accesos reales, es transformado a un arreglo 3D y en escala de grises que representa la distribución espacial X, Y, T. Luego, son divididos en secuencias de 75 frames a las que se aplica un algoritmo de detección de rostros en el frame central.

Este método es útil para prevenir ataques simples en sistemas de reconocimiento facial (como es el caso de las fotografías), pero no recomendable para ataques más complejos. El objetivo del método es identificar variaciones temporales, que pueden ser vulneradas fácilmente con una máscara. Es por ello que se sugiere siempre combinar métodos para construir un sistema biométrico robusto.

Para mayor información y el código del proyecto desarrollado visitar el proyecto en GitHub.

 

 

 


¿Cómo aplicar herramientas de IA en el área de la salud?

¿Cómo aplicar herramientas de IA en el área de la salud?

Desde su nacimiento, el desarrollo de la inteligencia artificial ha estado expuesto al escrutinio e incluso cierta desconfianza por parte de las comunidades científicas y, especialmente del público general y el área de la salud. Sin embargo, sus constantes avances han buscado la forma de sortear estos obstáculos para encontrar soluciones a los grandes problemas de la humanidad.

En noviembre de 2018, el departamento de emergencias del Sistema de Salud de la Universidad de Duke puso en marcha “Sepsis Watch”. La herramienta, fue diseñada a través de deep learning para ayudar a los profesionales del área a detectar los primeros signos de una de las principales causas de muerte hospitalaria a nivel mundial: las infecciones y su abrumadora capacidad de causar estragos en el cuerpo humano.

La temida sepsis ocurre cuando una infección desencadena una inflamación de todo el cuerpo, pudiendo ocasionar fallas inmediatas en múltiples órganos. Fiebre, dificultad para respirar, baja presión arterial, ritmo cardíaco acelerado y confusión mental son sólo algunos de sus síntomas. Si bien sus efectos son extremadamente perjudiciales, lo cierto es que puede tratarse si se diagnostica a tiempo. Sin embargo, esto no siempre ocurre ya que sus señales tempranas suelen confundirse con otras dolencias.

Sepsis Watch es el producto de tres años y medio de desarrollo, durante los cuales se realizó una digitalización de registros médicos y un análisis de 32 millones de puntos de datos. Posteriormente, el equipo de la Universidad de Duke se enfocó en el diseño de una interfaz simple, de manera que la herramienta pudiera utilizarse en forma de una aplicación para iPad. La app realiza un chequeo de la información de cada paciente y les asigna una calificación en base a su probabilidad de desarrollar la condición. Una vez que un médico confirma el diagnóstico, se pone en marcha una estrategia de tratamiento inmediato.

El resultado, es una reducción drástica de las muertes de pacientes por sepsis. Actualmente, la herramienta es parte de un ensayo clínico registrado a nivel federal, cuyos resultados preliminares estarán disponible para 2021.

VOYAGER: Una solución para el área de la salud hecha en Chile

Similar a los casos de muerte por sepsis, la hipertensión arterial, Alzheimer, esquizofrenia, retinitis pigmentosa, asma y diabetes mellitus son patologías con altas tasas de mortalidad según la OMS. Debido a la complejidad de su diagnóstico, su tratamiento consta normalmente protocolos rígidos, cuyos resultados pueden variar de un paciente a otro.

VOYAGER, desarrollado por UNIT, se enfoca en la mejora exponencial de la gestión de estas enfermedades, conocidas como multifactoriales. A través del uso de inteligencia artificial, el sistema es capaz de procesar datos recolectados por interfaces de voz para comprender en profundidad el estado de cada paciente y realizar un seguimiento predictivo y automatizado de su tratamiento. 

Similar a lo que ocurre con Sepsis Watch, esto se traduce en diagnósticos más eficientes e identificación de casos de mayor riesgo, impactando directamente en la tasa de fatalidad de estas enfermedades. En términos concretos, el objetivo de VOYAGER es disminuir en un 50% las hospitalizaciones de gravedad para quienes padecen diabetes, enfermedades cerebrovasculares, hipertensión e incluso obesidad, tanto en la salud pública como privada.

 

 


Iniciativa global: UNIT entre los seleccionados por Startup Creasphere

Iniciativa global: UNIT entre los seleccionados por Startup Creasphere

UNIT, empresa dedicada a la creación de productos de inteligencia universal, se encuentra entre los once seleccionados para el Batch 5 de Startup Creasphere. Bajo la premisa “Transforming Healthcare Together”, la iniciativa entrega la posibilidad de desarrollar un proyecto piloto. En otras palabras, se trata de una oportunidad única para impulsar proyectos de innovación. Y, por sobre todo, para ayudar a mejorar las vidas de millones de personas alrededor del mundo.

Fundada hace dos años en Múnich, Startup Creasphere es actualmente una de las mayores plataformas de innovación para soluciones de salud digital. Roche y Plug and Play, responsables del crecimiento inicial de empresas como Google, Paypal y Dropbox, fueron sus principales gestores. En 2019, SANOFI y Lonza se sumaron para seguir ampliando el alcance de la convocatoria a nivel internacional. 

Startup Creasphere: en la búsqueda de nuevas ideas

El Batch 5, del que UNIT forma parte como único representante de Latinoamérica, es la más reciente selección de proyectos. Este grupo comenzará el proceso de desarrollo y aceleración. Es decir, cada propuesta podrá trabajar bajo la mentoría de los socios fundadores para mejorar sus propuestas.

Una de las grandes metas de UNIT es seguir desafiando los límites de la inteligencia artificial en la industria. Actualmente utilizan herramientas como data science, machine learning, modelamiento matemático, deep learning y reconocimiento de lenguajes para una amplia gama de industrias y rubros. 

“Para UNIT, es fundamental participar en este programa para realizar pruebas validadas científica y tecnológicamente. Éstas nos permitirán comprobar los resultados obtenidos. Además, es una oportunidad de fortalecer nuestro modelo de negocios asociado con partners de nivel mundial”, explica Álvaro Riquelme, médico y Product Manager del sistema creado por UNIT. 

“Buscamos establecer una presencia sólida en países de ingresos medios y bajos. Estos sistemas de salud tienen desafíos similares a los de Chile. Especialmente en términos de la adherencia de los pacientes y la calidad del tratamiento”, puntualizó el doctor. 

VOYAGER

¿Sabías que las enfermedades multifactoriales son actualmente una de las principales causas de muerte en Chile y el mundo? La hipertensión arterial, Alzheimer, esquizofrenia, retinitis, asma y diabetes son sólo algunas de las complicaciones derivadas.

Son producidas por la combinación de factores ambientales y mutaciones en varios genes. Uno de sus principales factores de complejidad es que no siguen los patrones de herencia genética comunes. Por esta razón, su diagnóstico y tratamiento suele ser aún más difícil. Incluso cuando es posible detectarlas, suelen tratarse a través de protocolos rígidos, los que no siempre tienen resultados positivos en los distintos pacientes.

VOYAGER, desarrollado por UNIT, es un producto enfocado en mejorar la gestión de estas enfermedades. Busca reducir los casos de máxima gravedad y salvar cada vida humana posible. Su nombre está inspirado en las sondas espaciales que más lejos han llegado en el Universo. A través de la inteligencia artificial, el sistema es capaz de procesar datos recolectados a través de interfaces de voz. Esto permite comprender en profundidad el estado de la enfermedad, realizando un seguimiento predictivo y automatizado de su tratamiento. 

Como resultado, se obtienen diagnósticos más eficientes. Consecuentemente, se pueden identificar además los casos de mayor riesgo. En otras palabras, la tasa de fatalidad de estas enfermedades disminuiría. En términos concretos, su objetivo es disminuir en un 50% las hospitalizaciones de gravedad. Pacientes que padecen diabetes, enfermedades cerebrovasculares, hipertensión e incluso obesidad podrían ser los más beneficiados. Actualmente, VOYAGER se puede aplicar en el mundo farmacéutico y clínico.

 

 


Reconocimiento facial: una tecnología en constante actualización

Reconocimiento facial: una tecnología en constante actualización

El reconocimiento facial se refiere a la tecnología capaz de identificar la identidad de sujetos en imágenes o vídeos. Pese a una cantidad no menor de desconfianza debido a sus posibilidades de falla, actualmente es una metodología en constante desarrollo. Se trata de un sistema biométrico no invasivo, en donde las técnicas utilizadas han variado enormemente durante los años.

Durante los 90’s, los métodos tradicionales utilizaban características handcrafted, como descriptores de bordes y texturas. Gabor, Local Binary Patterns (LBP), Histogram of Oriented Gradients (HOG), Scale Invariant Feature Transform (SIFT), etc. son algunos ejemplos de esto, los que eran la base para representaciones más complejas, por medio de codificación y transformación de características como Principal Component Analysis (PCA), LCA, entre otras. Aspectos como la luminosidad, pose o expresión pueden manejarse a través de estos parámetros.

Antiguamente, no existía ninguna técnica que pudiera dominar completa e integralmente todos los escenarios. Uno de los mejores resultados logrados es el presentado en el estudio  “Blessing of dimensionality: High-dimensional feature and its efficient compression for face verification”, donde se alcanza un 95% en la base de datos Labeled Face in the Wild (LFW). Esto indica que los métodos existentes eran insuficientes para extraer una representación de los rostros que fuese invariante a los cambios del mundo real.

¿Cómo funciona el reconocimiento facial en la actualidad?

Desde hace unos años, los métodos tradicionales han sido reemplazados por otros basados en deep learning, los que a su vez tienen su origen en las Redes Neuronales Convolucionales (CNN). La principal ventaja de los métodos basados en aprendizaje profundo, es que pueden “aprender”, a partir de grandes bases de datos, las mejores características para representar los datos, es decir, para construir los rostros. 

Un ejemplo de esto es la red DeepFace, que el año 2014 alcanzó un desempeño “estado del arte” en la famosa base de datos LFW. Con esto, logró aproximarse al desempeño de un humano en un escenario sin restricciones (DeepFace: 97,35% vs Humanos: 97,53%). Esto, entrenando un modelo de 9 capas sobre 4 millones de imágenes de rostros. Inspirado por este trabajo, el foco de las investigaciones se desvió hacia los métodos basados en aprendizaje profundo, logrando alcanzar un 99,8% en tan solo tres años.

Los sistemas de reconocimiento facial usualmente están conformados por las etapas mostradas en la siguiente figura:

  1. Detección de rostros: Se ingresa al sistema una imagen de consulta. Un detector encuentra la posición del rostro en la imagen de consulta y retorna las coordenadas de la posición.
  2. Alineamiento del rostro: Su objetivo es escalar y recortar la imagen del mismo modo para todos los rostros, utilizando un set de puntos de referencia.
  3. Representación del rostro: Los píxeles de la imagen de la imagen del rostro son transformados a una representación compacta y discriminativa, es decir, en un vector de características. Esta representación puede ser lograda utilizando métodos clásicos o modelos basados en aprendizaje profundo. Idealmente, todas las imágenes del rostros de un mismo sujeto deberían tener vectores de características similares.
  4. Pareo de rostros: Las imágenes de los rostros de los individuos registrados conforman una base de datos llamada galería. Cada imagen de rostro en la galería es representada como un vector de características. La mayoría de los métodos calculan la similitud entre el vector de características de la imagen de consulta y los vectores de la galería, utilizando la distancia coseno o la distancia L2. Aquel con menor distancia indica a qué individuo pertenece el rostro consultado.