Climate change: How can AI help us curb this global crisis?

According to a study published by the academic journal Nature, humans are responsible for between 25% and 40% more of the total production of methane emissions than previously estimated. Methane is one of the most powerful greenhouse gases, being approximately 28 times more effective than carbon dioxide in trapping heat in the atmosphere, thus contributing to climate change.

For this reason, this gas is currently responsible for about a quarter of global warming. While it is naturally generated by animals, volcanoes, and wetlands, it is also a by-product of oil and gas production. In the mining industry, this is a problem that is also very present, due to the negative impact of the fossil fuels that are used for both production and transport.

Using fossil fuel: on the way to greater efficiency

Under the 2015 Paris Agreement for climate change, 195 countries pledged to limit global temperature rise to 2.0 ° C, and ideally no more than 1.5 ° C. This objective has motivated, in part, the decarbonization of multiple industries. This apparent shift in mindset will no doubt soon increase pressure from governments, investors and society to reduce emissions from the mining sector.

Currently, this industry is responsible for 4 to 7% of greenhouse gas emissions worldwide. CO2 emissions generated by mining operations and energy consumption, respectively, amount to 1%. For its part, fugitive methane emissions from coal mining are estimated to be between 3 and 6%.

The negative impact of these emissions has been long documented, both abroad and in Chile. During the beginning of 2020, a study revealed that the rise in the planet's temperature was partially responsible for the devastating fires registered in Australia. In Chile, the climatic diversity present throughout the territory has been affected in multiple aspects, especially when it comes to rainfall, a factor that negatively impacts relevant industries, such as agriculture.

COSMOS

UNIT, a company dedicated to the development of solutions through artificial intelligence, addresses this problem through COSMOS. This project seeks to optimize the use of fuels in transportation industries, especially in the mining sector.

The platform allows to reduce fuel consumption, along with GHG emissions through predictions based on artificial intelligence models. These predict consumption, optimize performance and detect anomalies in fuel use to ensure better use of this resource. Early detection also provides feedback to operators on incorrect operational practices. Thus seeking excellence and operational efficiency.

 

 

AvatarCarla Espinoza Gutiérrez

Journalist and Community Manager. I am passionate about delivering the right message for different kinds of audiences, always evolving and refreshing the tools, shape and tone of delivery.


Cambio climático: ¿De qué forma la IA puede ayudarnos a frenar esta crisis global?

Según un estudio publicado por la revista académica Nature, los seres humanos son responsables de entre un 25% y un 40% más de la producción total de emisiones de metano de lo que se había estimado anteriormente. El metano es uno de los gases de efecto invernadero más potentes, siendo aproximadamente 28 veces más eficaz que el dióxido de carbono para atrapar el calor en la atmósfera, contribuyendo así al cambio climático. 

Por esta razón, este gas es actualmente el responsable de aproximadamente una cuarta parte del calentamiento global. Si bien es generado naturalmente por animales, volcanes y humedales, también es un subproducto de la producción de petróleo y gas. En la industria minera, esta es una problemática que también se encuentra muy presente, debido al impacto negativo de los combustibles fósiles que se utilizan.

Uso de combustible fósil: en camino a una mayor eficiencia 

En virtud del Acuerdo de París de 2015, 195 países se comprometieron a limitar el aumento de la temperatura global a 2.0 °C, e idealmente no más de 1.5 °C. Este objetivo ha motivado, en parte, la descarbonización de múltiples industrias. Este aparente cambio de mentalidad sin duda aumentará prontamente la presión de los gobiernos, los inversores y la sociedad para reducir las emisiones del sector minero.

Actualmente, esta industria es responsable del 4 al 7% de las emisiones de gases de efecto invernadero a nivel mundial. Las emisiones de CO2 generadas por las operaciones mineras y por el consumo de energía, respectivamente, ascienden al 1%. Por su parte, las emisiones fugitivas de metano de la minería del carbón se estiman entre el 3 y el 6%.

El impacto negativo de estas emisiones ha sido largamente documentado, tanto en el extranjero como en nuestro país. Durante principios de 2020, un estudio reveló que el alza en la temperatura del planeta fue parcialmente responsable por los devastadores incendios registrados en Australia. En Chile, la diversidad climática presente a lo largo del territorio se ha visto afectada en distintos aspectos, especialmente en la caída de lluvias, factor que impacta negativamente a rubros tan importantes como la agricultura.

COSMOS

UNIT, empresa dedicada al desarrollo de soluciones a través de la inteligencia artificial, recoge esta problemática a través de COSMOS. El proyecto busca optimizar el uso de combustibles de las industrias en el transporte, especialmente en el rubro minero.

La plataforma permite reducir el consumo de combustible, junto con las emisiones GHG a través de predicciones realizadas en base a modelos de inteligencia artificial. Éstos predicen el consumo, optimizan el rendimiento y detectan anomalías en el uso de combustible para asegurar un mejor uso de este recurso. La detección temprana permite, además, retroalimentar a los operadores sobre prácticas operacionales incorrectas. De esta manera,  buscando la excelencia y eficiencia operacional.

 

 

AvatarCarla Espinoza Gutiérrez

Journalist and Community Manager. I am passionate about delivering the right message for different kinds of audiences, always evolving and refreshing the tools, shape and tone of delivery.


Reconocimiento facial: una tecnología en constante actualización

El reconocimiento facial se refiere a la tecnología capaz de identificar la identidad de sujetos en imágenes o vídeos. Pese a una cantidad no menor de desconfianza debido a sus posibilidades de falla, actualmente es una metodología en constante desarrollo. Se trata de un sistema biométrico no invasivo, en donde las técnicas utilizadas han variado enormemente durante los años.

Durante los 90’s, los métodos tradicionales utilizaban características handcrafted, como descriptores de bordes y texturas. Gabor, Local Binary Patterns (LBP), Histogram of Oriented Gradients (HOG), Scale Invariant Feature Transform (SIFT), etc. son algunos ejemplos de esto, los que eran la base para representaciones más complejas, por medio de codificación y transformación de características como Principal Component Analysis (PCA), LCA, entre otras. Aspectos como la luminosidad, pose o expresión pueden manejarse a través de estos parámetros.

Antiguamente, no existía ninguna técnica que pudiera dominar completa e integralmente todos los escenarios. Uno de los mejores resultados logrados es el presentado en el estudio  “Blessing of dimensionality: High-dimensional feature and its efficient compression for face verification”, donde se alcanza un 95% en la base de datos Labeled Face in the Wild (LFW). Esto indica que los métodos existentes eran insuficientes para extraer una representación de los rostros que fuese invariante a los cambios del mundo real.

¿Cómo funciona el reconocimiento facial en la actualidad?

Desde hace unos años, los métodos tradicionales han sido reemplazados por otros basados en deep learning, los que a su vez tienen su origen en las Redes Neuronales Convolucionales (CNN). La principal ventaja de los métodos basados en aprendizaje profundo, es que pueden “aprender”, a partir de grandes bases de datos, las mejores características para representar los datos, es decir, para construir los rostros. 

Un ejemplo de esto es la red DeepFace, que el año 2014 alcanzó un desempeño “estado del arte” en la famosa base de datos LFW. Con esto, logró aproximarse al desempeño de un humano en un escenario sin restricciones (DeepFace: 97,35% vs Humanos: 97,53%). Esto, entrenando un modelo de 9 capas sobre 4 millones de imágenes de rostros. Inspirado por este trabajo, el foco de las investigaciones se desvió hacia los métodos basados en aprendizaje profundo, logrando alcanzar un 99,8% en tan solo tres años.

Los sistemas de reconocimiento facial usualmente están conformados por las etapas mostradas en la siguiente figura:

Sistemas de reconocimiento de rostros. (a) Detección de rostro. (b) Alineamiento del rostro. (c) Representación del rostro. (d) Pareo de rostros.
  1. Detección de rostros: Se ingresa al sistema una imagen de consulta. Un detector encuentra la posición del rostro en la imagen de consulta y retorna las coordenadas de la posición.
  2. Alineamiento del rostro: Su objetivo es escalar y recortar la imagen del mismo modo para todos los rostros, utilizando un set de puntos de referencia.
  3. Representación del rostro: Los píxeles de la imagen de la imagen del rostro son transformados a una representación compacta y discriminativa, es decir, en un vector de características. Esta representación puede ser lograda utilizando métodos clásicos o modelos basados en aprendizaje profundo. Idealmente, todas las imágenes del rostros de un mismo sujeto deberían tener vectores de características similares.
  4. Pareo de rostros: Las imágenes de los rostros de los individuos registrados conforman una base de datos llamada galería. Cada imagen de rostro en la galería es representada como un vector de características. La mayoría de los métodos calculan la similitud entre el vector de características de la imagen de consulta y los vectores de la galería, utilizando la distancia coseno o la distancia L2. Aquel con menor distancia indica a qué individuo pertenece el rostro consultado.

 

 

Cristóbal QuezadaCristóbal Quezada

I am a Data Scientist interested in natural language processing.


UNIT Art Lab: Una mirada a la tecnología a través del arte

Desde tiempos primitivos, el arte y sus múltiples expresiones han sido herramientas para examinar, analizar y registrar lo que ocurre a nuestro alrededor. De manera similar, la ciencia ha contribuido tremendamente a comprender distintos fenómenos a través de la historia. Sin embargo, cada una de estas disciplinas pareciera estar siempre en contraposición a la otra. Hasta ahora. 

La dimensión subjetiva del arte y el carácter riguroso de la ciencia son las dos naturalezas que se unen en UNIT Art Lab. El proyecto es impulsado por UNIT, empresa dedicada al desarrollo de soluciones de inteligencia artificial y tiene por objetivo generar nuevas miradas sobre la tecnología y el destino de la vida en la Tierra.

En esta línea, las plataformas digitales nos ofrecen la posibilidad de crear espacios o entornos imaginarios que el arte tradicional apenas ha logrado explorar. Es por esto que son las protagonistas de este proyecto.

Para lograrlo, se utilizan herramientas de análisis de datos en un cruce con técnicas de las artes mediales. El resultado son distintas visualizaciones y figuras que el artista visual Sergio Mora-Díaz creó a partir de la data de más de 600 pacientes, quienes fueron monitoreados por dos años para evaluar la evolución de su sangre en base al indicador INR de coagulación sanguínea. Esto, a partir del proyecto VOYAGER impulsado por UNIT.

“Mi trabajo artístico está muy ligado al espacio y, principalmente, a la generación de experiencias. El uso de nuevas tecnologías para proponer nuevos tipos de vivencias sensoriales para las personas es una gran oportunidad de la que estoy muy contento de ser parte”, explica Mora-Díaz. 

“Gran parte de mis obras se basan en la utilización de algoritmos, es decir, datos matemáticos, para poder crear figuras geométricas o entornos interactivos, por ejemplo, a través de sensores capaces de capturar información del entorno y traducirla a luz, sonido o imagen”, puntualiza el artista.

“La inteligencia universal incluye el arte como su medio de expresión más influyente, dado que conecta y articula de diferentes maneras el pensamiento creativo, la visión y sensaciones íntimas del mundo que nos rodea. De esta manera, el Art Lab permite una llegada más allá en el pensamiento trascendente de nuestra comunidad, complementando nuestra base racional de herramientas analíticas y de software”, asegura Juan Larenas, CEO de UNIT.

Convocatoria abierta

¿Eres artista? ¿Te gustaría ser parte de este experimento? Encuentra más información en el siguiente enlace.

 

 

AvatarCarla Espinoza Gutiérrez

Journalist and Community Manager. I am passionate about delivering the right message for different kinds of audiences, always evolving and refreshing the tools, shape and tone of delivery.


UNIT Art Lab: A look at technology through art

Since primitive times, art and its many expressions have been tools to examine, analyze and record what happens around us. In a similar way, science has contributed tremendously to the understanding of different phenomena throughout history. However, each of these disciplines seemed to always work as opposites. Well, until now. This is when Art Lab comes in.

The subjective dimension of art and the rigorous nature of science are the two natures that come together in UNIT Art Lab. The project is promoted by UNIT, a company dedicated to the development of artificial intelligence solutions and aims to generate new views on technology and the fate of life on Earth.

Along these lines, digital platforms offer us the possibility of creating imaginary spaces or environments that traditional art has barely managed to explore. This is why they are the protagonists of this project.

To achieve this, data analysis tools are used in a crossover with media arts techniques. The result is different visualizations and figures that the visual artist Sergio Mora-Díaz created from the data of more than 600 patients, who were monitored for two years to evaluate the evolution of their blood based on the INR indicator of blood coagulation. This, from the VOYAGER project promoted by UNIT.

“My artistic work is closely linked to space and, mainly, to the generation of experiences. Being able to discover new technologies to propose new types of sensory experiences is a great opportunity of which I am very happy to be a part of”, explains Mora-Díaz.

"Much of my work is based on the use of algorithms, that is, mathematical data, to be able to create geometric figures or interactive environments. For example, through sensors capable of capturing information from the environment and translating it into light, sound or image”, the artist points out.

“Universal intelligence includes art as its most influential means of expression, since it connects and articulates, in different ways, creative thinking, vision and intimate sensations of the world around us. In this way, Art Lab allows a further arrival in the transcendent thinking of our community, complementing our rational base of analytical tools and software”, assures Juan Larenas, CEO of UNIT.

Open call

You are an artist? Would you like to be part of this experiment? Find more information in the following link.

 

 

AvatarCarla Espinoza Gutiérrez

Journalist and Community Manager. I am passionate about delivering the right message for different kinds of audiences, always evolving and refreshing the tools, shape and tone of delivery.


Professional growth: How can AI help you build your career?

Everyone has dreamed of being their own boss, an ideal for which we invest resources and countless hours of study. Although this is undoubtedly the basis of a successful career and subsequent professional growth, nowadays there are multiple tools capable of crossing different fields of expertise to help us enhance our objectives and allow us to take the lead in the job world.

Currently, every data science student, teacher and professional has a formed opinion about Artificial Intelligence (AI), its uses, applications and limitations. It is a discipline in constant expansion, and its scope is becoming increasingly transversal. Even those in other academic branches and professions are beginning to have more than a passing interest in these emerging technologies.

According to MIT Sloan Research, more than 90% of the largest companies globally are using AI to improve their customer interaction protocols. In other words, we are entering a new decade, one that will definitely be defined by data. As a consequence, the demand for professionals dedicated to these disciplines will be much more intense.

New opportunities

US-based management consulting firm McKinsey & Company estimates that 13% of current work activities performed in occupations that require a college or advanced degrees could be displaced. Specifically, the study found that 60 to 375 million people around the world could be faced with the need to change their field of work by 2030.

Contrary to popular opinion, where these tools are often the cause of job losses, the new era led by data offers multiple and new opportunities. In this change of landscape, technologies such as AI and Machine Learning (ML) will lead the demand for professionals for this date. But where to start?

Who to follow

Keep up to date with the latest news from the world of artificial intelligence by following some of the most respected voices in the AI ​​world on social media.

Bob Swan, Intel Corporation

Jen-Hsun “Jensen” Huang, Nvidia

Demis Hassabis, DeepMind Technologies

Jeff Bezos, Amazon

Juan Larenas, UNIT

Free resources for professional growth

There are many free access tools that can help you forge your new career in AI. Here we recommend some.

Elements of AI

The Elements of AI is a series of free online courses created by Reaktor and the University of Helsinki. They combine theory with practical exercises so you can learn at your own pace.

MIT Artificial Intelligence Course

Available through the official YouTube channel of the Massachusetts Institute of Technology, it is aimed at professionals with basic knowledge of AI.

Intensive Google Machine Learning Course

Although it does not require any prior knowledge, we recommend that you have experience in Python programming. However, the course contains secondary resources to help you continue learning.

Stanford Machine Learning Course

The popular online course platform Coursera offers this course taught by the renowned Stanford University. It is focused on acquiring practical knowledge on key aspects of AI.

Would you like to know your level of AI and Machine Learning? Put your skills to the test with this free trial from PixelTests.

 

 

AvatarCarla Espinoza Gutiérrez

Journalist and Community Manager. I am passionate about delivering the right message for different kinds of audiences, always evolving and refreshing the tools, shape and tone of delivery.


Inteligencia artificial: ¿Cómo puede ayudarte a conseguir un ascenso?

Todos y todas hemos soñado alguna vez con ser nuestros propios jefes, tarea para la cual invertimos recursos e incontables horas de estudio. Si bien esta es, sin duda, la base del crecimiento profesional, hoy en día existen múltiples herramientas capaces de traspasar distintos campos de expertise para ayudarnos a potenciar nuestros objetivos y permitirnos tomar la delantera en el mundo laboral.

Actualmente, cada estudiante, docente y profesional de las ciencias de datos tiene una opinión formada sobre la inteligencia artificial (IA), sus usos, aplicaciones y limitaciones. Se trata de una disciplina en constante expansión, cuyo alcance se vuelve cada vez más transversal. Incluso aquellos en otras ramas académicas y profesiones están comenzando a tener más que un mero interés pasajero en estas tecnologías emergentes.

Según MIT Sloan Research, más del 90% de las mayores empresas a nivel global están utilizando IA para mejorar sus protocolos de interacción con clientes. En otras palabras, estamos entrando en una nueva década, una que definitivamente será definida por los datos. Como consecuencia, la demanda de profesionales dedicados a disciplinas será mucho más intensa.

Nuevas oportunidades para el crecimiento profesional

La consultora de gestión McKinsey & Company, basada en E.E.U.U, estima que el 13% de las actividades laborales actuales realizadas en ocupaciones que requieren una universidad o títulos avanzados podrían ser desplazadas. En concreto, el estudio arrojó que de 60 a 375 millones de personas en todo el mundo podrían verse enfrentadas a la necesidad de cambiar de rubro para 2030. 

Contrario a la opinión popular, donde estas herramientas suelen ser las causantes de la pérdida de empleos, la nueva era liderada por los datos ofrece múltiples y nuevas oportunidades. En este cambio de panorama, tecnologías como la IA y Machine Learning (ML) liderarán la demanda de profesionales para esta fecha. Pero, ¿por dónde empezar?

A quién seguir

Mantente al día de las novedades del mundo de la inteligencia artificial siguiendo en redes sociales a algunas de las voces más respetadas del mundo AI.

Bob Swan, Intel Corporation

Jen-Hsun “Jensen” Huang, Nvidia

Demis Hassabis, DeepMind Technologies

Jeff Bezos, Amazon

Juan Larenas, UNIT

Recursos gratuitos

Existen muchas herramientas de acceso liberado que pueden ayudarte a forjar tu nueva carrera en AI. Aquí te recomendamos algunas.

Elements of AI

The Elements of AI es una serie de cursos gratuitos en línea creados por Reaktor y la Universidad de Helsinki. Combinan teoría con ejercicios prácticos para que puedas aprender a tu propio ritmo.

Curso de Inteligencia Artificial del MIT

La propuesta, disponible a través del canal oficial de YouTube del Instituto Tecnológico de Massachusetts, está dirigida a profesionales con conocimientos básicos sobre IA.

Curso intensivo de Aprendizaje Automático de Google

Si bien no requiere ningún conocimiento previo, te recomendamos tener experiencia en la programación de Python. Sin embargo, el curso contiene recursos secundarios para ayudarte a seguir aprendiendo.

Curso de Aprendizaje Automático de Stanford

La popular plataforma de cursos en línea Coursera ofrece este curso dictado por la Universidad de Stanford. Está enfocado en adquirir conocimientos prácticos sobre aspectos clave de la AI.

¿Te gustaría conocer tu nivel de AI y Machine Learning? Pon a prueba tus habilidades con esta prueba gratuita de PixelTests.

 

 

AvatarCarla Espinoza Gutiérrez

Journalist and Community Manager. I am passionate about delivering the right message for different kinds of audiences, always evolving and refreshing the tools, shape and tone of delivery.


Artificial Intelligence: Why do facial recognition systems fail?

Contrary to password-protected systems, our biometric information is widely available and relatively easy to obtain. Therefore, there are some types of attacks that are easy to implement and that can be successful if there are no measures to avoid them. In particular, facial recognition systems can be compromised using one of the following methods:

  • A photography
  • A video
  • A 3D face model

Various methods have been developed to deal with the problem of spoofing with face images. These can be divided into two approaches: dynamic characteristics and static characteristics.

Dynamic feature approaches seek to detect motion in a video sequence by analyzing the trajectory of specific segments of the face. These reveal valuable information to discriminate between real faces and static copies. Some typical methods are those based on the detection of the lids of the eyes; head and face gestures (nodding, smiling, or looking in different directions) and face and gaze tracking through flow estimation. These techniques are highly effective at detecting attacks that use photos, but are less effective when it comes to videos.

In order to increase the performance in video attacks, specific methods of liveness detection in videos have been developed. For example, exploring the 3D structure of videos, analyzing a large number of 2D images with different head positions; context-based analysis to take advantage of the non-facial information available in the samples, such as characteristics of movements in the scene (movement in the background vs. foreground), and others. Modified versions of Local Binary Patterns or LBP are also being used, mostly to take advantage of the temporal information present in the video or to analyze the dynamic textures in comparison with rigid objects such as photos and masks.

The search for solutions

One way to tackle the problem is to focus on detecting life. For this, it is necessary to consider a spatio-temporal representation that combines the facial aspect and its dynamics. To achieve this, the key lies in using a spatio-temporal representation based on LBP due to the performance shown in the modeling of face movement and recognition of facial expressions, and also in the recognition of dynamic texture.

How is spoofing in facial recognition detected?

The LBP operator for texture analysis is defined as a texture-invariant grayscale measure, derived from a general definition in a local area. This is a powerful texture descriptor, and its properties for real-world applications include its discriminative power, computational simplicity, and tolerance to monotonic grayscale changes.

The LBP operator was initially conceived to deal with spatial information. However, its use has been extended to space-time representations for dynamic texture analysis, giving way to the Volume Local Binary Pattern (VLBP) operator.

VLBP consists of finding the dynamic texture in a video, which is represented as a volume (X, Y, T), where X and Y denote the spatial coordinates and T represents the frame index. On the other hand, the area close to each pixel is defined in a three-dimensional environment. The volume of VLBP can be defined by orthogonal planes, giving way to what is known as LBP-TOP or LBP Three Orthogonal Planes. Here the XY, XT and YT planes are defined. From them, the LBP maps are extracted for each plane, denoted as XY-LBP, XT-LBP and YT-LBP and then they are concatenated to obtain the LBP representation considering a pixel of the volume as the center, as shown in the figure .

LBP in three orthogonal planes. (a) The planes intersect one pixel. (b) LBP histograms of each plane. (c) Concatenation of the histograms.

In the LBP-TOP operator, the radius of the LBP algorithm on the X axis is denoted Rx, on the Y axis it is denoted Ry and on the T axis it is denoted by Rt.

The number of neighboring points in the XY, XT, and YT planes is PXY, PXT, and PYT, respectively. The type of operator in each plane can vary, these can be, uniform patterns (u2) or uniform patterns invariant to rotation (rui2).

Unlike photographs, real faces are non-rigid objects with contractions of the facial muscles that result in temporary deformations. For example, eyelids and lips. Therefore, it is assumed that specific patterns of facial movement should be detected when a living human is observed with a frontal camera. The movement of a photograph in front of a camera causes distinctive movement patterns that do not describe the same pattern as a genuine face.

The figure presents the anti-spoofing methodology, which consists of the following stages:

LBPTOP-based anti-spoofing method block diagram.
  1. Each frame of the original sequence is converted to grayscale and ran through a face detector.
  2. The detected faces are geometrically normalized to 64 × 64 pixels. This, in order to reduce the noise of the face detector, the same bounding box is used for each set of frames used in the calculation with the LBP-TOP operator.
  3. The LBP operator is applied in each plane (XY, XT and YT) and the histograms are calculated and then concatenated.
  4. A binary classifier is used to determine what the actual data is.

Each of the videos, whether of actual attacks or accesses, is transformed into a 3D and grayscale arrangement that represents the spatial distribution X, Y, T. Then, they are divided into sequences of 75 frames to which it is applied a face detection algorithm in the center frame.

This method is useful for preventing simple attacks (such as photographs), but not recommended for more complex attacks. The objective of the method is to identify temporary variations, which can be easily violated with a mask. That is why it is always suggested to combine methods to build a robust biometric system.

For more information and the code of the developed project visit the project on GitHub.

 

 

 


Cielo nocturno estrellado

How to apply AI tools for health innovation?

Since its inception, the development of artificial intelligence has been exposed to much scrutiny and even some mistrust from the scientific communities and especially the general public. However, the constant advances of AI tools have sought to overcome these obstacles to find solutions to the great problems of humanity.

In November 2018, the Duke University Health System Emergency Department launched "Sepsis Watch." The tool was designed through deep learning to help professionals in the area detect the first signs of one of the leading causes of hospital death worldwide: infections and their overwhelming ability to wreak havoc on the human body.

The dreaded sepsis occurs when an infection triggers inflammation throughout the body, which can cause immediate -and multiple- organ failure. Fever, shortness of breath, low blood pressure, fast heartbeat, and mental confusion are just some of its symptoms. Although its effects are extremely harmful, the truth is that it can be treated with an early diagnosis. However, this is easier said than done since its early signs are often confused with other ailments.

Sepsis Watch is the product of three and a half years of development, during which medical records were digitized and 32 million data points were analyzed. Subsequently, the Duke University team focused on designing a simple interface so that the tool could be used in the form of an iPad app. The app checks each patient's information and assigns them a rating based on their probability of developing the condition. Once a doctor confirms the diagnosis, an immediate treatment strategy is put in place.

The result is a drastic reduction in the deaths of patients from sepsis. Currently, the AI tool is part of a federally registered clinical trial. The preliminary results of which will be available by 2021.

VOYAGER: AI Tools solution for the health area made in Chile

Similar to the cases of death due to sepsis, arterial hypertension, Alzheimer's, schizophrenia, retinitis pigmentosa, asthma and diabetes mellitus are pathologies with high mortality rates according to the WHO. Due to the complexity of their diagnosis, their treatment normally consists of rigid protocols, the results of which may vary from one patient to another.

VOYAGER, developed by UNIT, focuses on exponentially improving the management of these diseases, known as multifactorial. Through the use of artificial intelligence, the system is capable of processing data collected by voice interfaces to fully understand the status of each patient and perform predictive and automated monitoring of their treatment.

Similar to what happens with Sepsis Watch, this translates into more efficient diagnoses and identification of higher risk cases, directly impacting the fatality rate of these diseases. In concrete terms, VOYAGER's goal is to reduce serious hospitalizations by 50% for those suffering from diabetes, cerebrovascular diseases, hypertension and even obesity, both in public and private health.

 

 

AvatarCarla Espinoza Gutiérrez

Journalist and Community Manager. I am passionate about delivering the right message for different kinds of audiences, always evolving and refreshing the tools, shape and tone of delivery.


Inteligencia Artificial: ¿Por qué fallan los sistemas de reconocimiento facial?

Contrario a los sistemas protegidos con contraseña, nuestra información biométrica está ampliamente disponible y es relativamente fácil de obtener. Por lo anterior, existen algunos tipos de ataques fáciles de implementar y que pueden tener éxito si no existen medidas para evitarlos. En particular, los sistemas de reconocimiento facial se pueden vulnerar utilizando uno de los siguientes métodos: 

  • Una fotografía
  • Un vídeo
  • Un modelo 3D del rostro

Se han desarrollado varios métodos para enfrentar el problema de la suplantación con imágenes de rostros en sistemas de reconocimiento facial. Estos pueden ser divididos en dos enfoques: características dinámicas y  características estáticas.

Los enfoques de características dinámicas buscan detectar el movimiento en una secuencia de vídeo, analizando la trayectoria de segmentos específicos del rostro. Éstas revelan información valiosa para discriminar entre rostros reales y copias estáticas. Algunos métodos típicos son aquellos basados en la detección de párpados de ojos; gestos de cabeza y rostro (cabeceo, sonreír o mirar en diferentes direcciones); seguimiento del rostro y la mirada a través de la estimación de flujo. Estas técnicas son altamente efectivas para detectar ataques que utilizan fotos, pero pierden efectividad cuando se trata de vídeos.

Con el objetivo de aumentar el desempeño en los ataques con vídeos, se han desarrollado métodos específicos de liveness detection en vídeos. Por ejemplo, explorar la estructura 3D de los vídeos, analizar una gran cantidad de imágenes 2D con diferentes posiciones de la cabeza; usar un análisis basado en contexto para tomar ventaja de la información no-facial disponible en las muestras, como características de movimientos en la escena (como por ejemplo, movimiento en el fondo v/s primer plano). También se están usando versiones modificadas de Local Binary Patterns o LBP, para aprovechar la información temporal presente en el vídeo o analizar las texturas dinámicas en comparación con objetos rígidos como fotos y máscaras.

En búsqueda de soluciones

Una forma de enfrentar el problema es enfocarse en la detección de vida. Para esto, es necesario considerar una representación espacio-temporal que combine el aspecto facial y su dinámica. Para lograrlo, la clave está en la utilización de una representación espacio-temporal basada en LBP debido al desempeño mostrado en el modelamiento de movimiento de rostros y reconocimiento de expresiones faciales, y también en el reconocimiento de textura dinámica.

¿Cómo se detecta la suplantación en sistemas de reconocimiento facial?

El operador LBP para análisis de textura es definido como una medida de escala de grises invariante a la textura, derivado de una definición general en una vecindad local. Este es un descriptor de textura poderoso, y entre sus propiedades para aplicaciones del mundo real se destaca su poder discriminativo, simplicidad computacional y tolerancia ante cambios monotónicos en escala de grises.

El operador LBP inicialmente fue concebido para lidiar con información espacial. Sin embargo, su uso se ha ampliado a representaciones espacio temporal para análisis de textura dinámica, dando paso al operador Volume Local Binary Pattern (VLBP). 

VLBP consiste en encontrar la textura dinámica en un vídeo, el cual es representado como un volumen (X, Y, T), donde X y Y denotan las coordenadas espaciales y T representa el índice del frame. Por otro lado, la vecindad de cada píxel está definida en un entorno tridimensional. El volumen de VLBP puede ser definido por planos ortogonales, dando paso a lo que se conoce como LBP-TOP o LBP Three Orthogonal Planes. Aquí se definen los planos XY, XT y YT. A partir de ellos, se extraen los mapas LBP para cada plano, denotados como XY-LBP, XT-LBP y YT-LBP y luego se concatenan para obtener la representación LBP considerando como centro un píxel del volumen , como se muestra en la figura.

LBP en tres planos ortogonales. (a) Los planos intersectan un píxel. (b) Histogramas LBP de cada plano. (c) Concatenación de los histogramas.

En el operador LBP-TOP el radio del algoritmo LBP en el eje X es denotado Rx, en el eje Y es denotado Ry y en el eje T es denotado por Rt.

El número de puntos vecinos en los planos XY ,XT y YT es PXY, PXT y PYT, respectivamente. El tipo de operador en cada plano puede variar, estos pueden ser, patrones uniformes(u2), patrones uniformes invariantes a la rotación (rui2).

A diferencia de las fotografías, los rostros reales son objetos no rígidos con contracciones de los músculos faciales que resultan en deformaciones temporales. Por ejemplo, párpados y labios. Por lo tanto, se asume que los patrones específicos de movimiento facial deberían ser detectados cuando un humano vivo es observado con una cámara frontalmente. El movimiento de una fotografía frente a una cámara causa patrones de movimiento distintivos que no describen el mismo patrón que una cara genuina.

En la figura se presenta la metodología anti-spoofing, la cuál consta de los siguientes etapas:

Diagrama de bloques de método anti-spoofing basado en LBPTOP.

Diagrama de bloques de método anti-spoofing basado en LBPTOP.

  1. Cada frame de la secuencia original es convertido a escala de grises y pasado a través de un detector de rostros.
  2. Los rostros detectados son geométricamente normalizados a 64 × 64 píxeles. Esto, con el objetivo de reducir el ruido del detector de rostros, la misma bounding box es utilizada para cada set de frames usado en el cálculo con el operador LBP-TOP. 
  3. El operador LBP es aplicado en cada plano (XY,XT y YT) y los histogramas son calculados y luego concatenados.
  4. Se utiliza un clasificador binario para determinar cuáles son datos reales.

Cada uno de los vídeos, ya sea de ataques o accesos reales, es transformado a un arreglo 3D y en escala de grises que representa la distribución espacial X, Y, T. Luego, son divididos en secuencias de 75 frames a las que se aplica un algoritmo de detección de rostros en el frame central.

Este método es útil para prevenir ataques simples en sistemas de reconocimiento facial (como es el caso de las fotografías), pero no recomendable para ataques más complejos. El objetivo del método es identificar variaciones temporales, que pueden ser vulneradas fácilmente con una máscara. Es por ello que se sugiere siempre combinar métodos para construir un sistema biométrico robusto.

Para mayor información y el código del proyecto desarrollado visitar el proyecto en GitHub.

 

 

Cristóbal QuezadaCristóbal Quezada

I am a Data Scientist interested in natural language processing.