lunes, enero 31, 2022

Manual de bioseguridad en el laboratorio 4ª edición


La primera edición del manual de bioseguridad en el laboratorio de la Organización Mundial de la Salud (OMS) se publicó en 1983. En él se alentaba a los países a aceptar y aplicar conceptos básicos de seguridad biológica y a elaborar códigos nacionales de prácticas para la manipulación segura de agentes biológicos patógenos en los laboratorios dentro de sus fronteras geográficas. Desde entonces, muchos países han utilizado las orientaciones de los expertos que figuran en el manual para elaborar esos códigos de prácticas. Las ediciones segunda y tercera del Manual de bioseguridad en el laboratorio se publicaron en 1993 y 2004 respectivamente. Con cada nueva versión, la OMS sigue proporcionando liderazgo internacional en materia de bioseguridad, abordando los problemas, las tecnologías y los retos emergentes, y proporcionando las mejores prácticas.

Las versiones anteriores del manual describían la clasificación de los agentes biológicos y de laboratorios en términos de grupos de riesgo/peligro y niveles de bioseguridad/contención. Aunque Si bien este puede ser un punto de partida lógico para la manipulación y contención de agentes biológicos, ha llevado a la idea errónea de que el grupo de riesgo de un agente biológico corresponde directamente al nivel de bioseguridad de un laboratorio. De hecho, el riesgo real de un escenario determinado está influido no sólo por el agente que se manipula, sino también por el procedimiento que se lleve a cabo y la competencia del personal del laboratorio que participa en la actividad de laboratorio.

Esta cuarta edición del manual se basa en el marco de evaluación de riesgos introducido en la tercera edición. Una evaluación exhaustiva, basada en pruebas y transparencia de los riesgos, permitiendo equilibrar las medidas de seguridad con el riesgo real de trabajar con agentes biológicos en cada caso. Esto permitirá a los países aplicar medidas de bioseguridad de laboratorio económicamente viables y sostenibles de bioseguridad en los laboratorios que sean relevantes para sus circunstancias y prioridades individuales.

Contenido del manual

·        Introducción

·        Evaluación de riesgos

·        Requisitos básicos

·        Medidas de control reforzadas

·        Medidas de contención máxima

·        Transferencia y transporte

·        Gestión del programa de bioseguridad

·        Bioseguridad en el laboratorio

·        Supervisión de la bioseguridad a nivel nacional e internacional

Para poder descargar la 4ª edición de este Manual de bioseguridad en el laboratorio de la OMS debe hacer click aquí.

Descarga del documento

Fuente: HOSPITECNIA

viernes, enero 28, 2022

'Machine learning': ¿qué es y cómo funciona?

La capacidad de las máquinas para aprender está presente en muchos aspectos de la vida cotidiana. Por ello, el ‘machine learning’ está detrás de las recomendaciones de películas en plataformas digitales, del reconocimiento por voz de los asistentes virtuales o la capacidad de los coches autónomos para ver la carretera. Sin embargo, el origen de esta disciplina data de varias décadas atrás. Entonces: ¿por qué ahora es tan importante esta tecnología y qué la hace tan revolucionaria?

El ‘machine learning’ –aprendizaje automático– es una rama de la inteligencia artificial que permite que las máquinas aprendan sin ser expresamente programadas para ello. Una habilidad indispensable para hacer sistemas capaces de identificar patrones entre los datos para hacer predicciones. Esta tecnología está presente en un sinfín de aplicaciones como las recomendaciones de Netflix o Spotify, las respuestas inteligentes de Gmail o el habla de Siri y Alexa.

“En definitiva, el ‘machine learning’ es un maestro del reconocimiento de patrones, y es capaz de convertir una muestra de datos en un programa informático capaz de extraer inferencias de nuevos conjuntos de datos para los que no ha sido entrenado previamente”, explica José Luis Espinoza, científico de datos de BBVA México. Esta capacidad de aprendizaje se emplea también para la mejora de motores de búsqueda, la robótica, el diagnóstico médico o incluso la detección del fraude en el uso de tarjetas de crédito.

Aunque ahora esté de moda, gracias a su capacidad para derrotar a jugadores del Go o resolver cubos de Rubik, su origen se remonta al siglo pasado. “La estadística es sin duda la base fundamental del aprendizaje automático, que básicamente consiste en una serie de algoritmos capaces de analizar grandes cantidades de datos para deducir cuál es el resultado más óptimo para un determinado problema”, añade Espinoza.


Matemáticas antiguas, nueva computación

Hay que remontarse al siglo XIX para encontrar algunos de los hitos matemáticos que sentaron las bases de esta tecnología. El teorema de Bayes (1812) definió la probabilidad de que un evento ocurra basándose en el conocimiento de las condiciones previas que pudieran estar relacionadas con dicho evento.

Años después (en la década de 1940) otra serie de científicos sentaron las bases de la programación informática: capaz de traducir una serie de instrucciones en acciones ejecutables por un ordenador. Estos precedentes hicieron posible que en 1950 el matemático Alan Turing plantease por primera vez la pregunta de si es posible que las máquinas puedan pensar, con la que plantó la semilla de la creación de computadoras de ‘inteligencia artificial’. Computadoras capaces de replicar de forma autónoma tareas típicamente humanas, como la escritura o el reconocimiento de imágenes.

Fue un poco más adelante, entre las décadas de 1950 y 1960, cuando distintos científicos empezaron investigar cómo aplicar la biología de las redes neuronales del cerebro humano para tratar de crear las primeras máquinas inteligentes. La idea derivó en la creación de las redes neuronales artificiales, un modelo computacional inspirado en la forma en que las neuronas transmiten la información entre ellas a través de una red de nodos interconectados. Uno de los primeros experimentos en este sentido lo realizaron Marvin Minksy y Dean Edmonds, científicos del Instituto Tecnológico de Massachussets (MIT). Ambos lograron crear un programa informático capaz de aprender de la experiencia para salir de un laberinto.

"El ‘machine learning’ es un maestro del reconocimiento de patrones"

Esta fue la primera máquina capaz de aprender por sí misma a resolver una tarea sin haber sido programada para ello de forma explícita, sino que lo hacía tan solo aprendiendo a partir de los ejemplos proporcionados inicialmente. El logro significó un cambio de paradigma respecto al concepto más amplio de inteligencia artificial. “El gran hito del ‘machine learning’ es que permitió pasar de la programación mediante reglas a dejar que el modelo haga aflorar dichas reglas de manera desasistida gracias a los datos”, explica Juan Murillo, mánager de Estrategia de Datos en BBVA.

A pesar del éxito del experimento, el logro también ponía de manifiesto los límites que la tecnología tenía por entonces: la falta de disponibilidad de datos y la falta de potencia de cómputo de la época hacían que estos sistemas no tuvieran la capacidad suficiente para resolver problemas complejos. Esto derivó en la llegada del llamado ‘primer invierno de la inteligencia artificial’, una serie de décadas durante las cuales la falta de resultados y avances hizo que el mundo académico perdiera esperanza respecto a esta disciplina.

El renacer de la IA

El panorama empezó a cambiar a finales del siglo XX. Con la llegada de internet, las cantidades masivas de información disponibles para entrenar los modelos y el aumento de la potencia de cálculo de los ordenadores. “Ahora podemos hacer lo mismo que antes, pero mil millones de veces más rápido. Los algoritmos son capaces de probar 500.000 millones de veces una misma combinación de datos hasta darnos el resultado óptimo. Y lo hacen en cuestión de horas o minutos, mientras que antes harían falta semanas o meses”, asegura Espinoza.

En 1997 un célebre hito marcó el renacer del aprendizaje automático: el sistema de IBM Deep Blue, entrenado a base de ver miles de partidas exitosas de ajedrez, logró derrotar al máximo campeón mundial de este juego, Garry Kasparov. El logro fue posible gracias al ‘deep learning’ o aprendizaje profundo, una subcategoría del ‘machine learning’ descrita por primera vez en 1960, que permite que los sistemas no solo aprendan de la experiencia, sino que sean capaces de entrenarse a sí mismas para hacerlo cada vez mejor usando los datos. Esto hito fue posible entonces –y no 30 años atrás–, gracias al aumento de la disponibilidad de datos con los que entrenar el modelo: “Lo que hacía este sistema es calcular estadísticamente qué movimiento tiene más probabilidades de hacerle ganar la partida basándose en miles de ejemplos de partidas vistas previamente”, añade Espinoza.

"La diferencia con técnicas anteriores están en su capacidad para adaptarse a los cambios en los datos a medida que van entrando en el sistema"

Esta tecnología ha avanzado de forma exponencial durante los últimos 20 años, y es también la responsable de AlphaGo, el programa capaz de derrotar al juego Go a cualquier jugador humano. Y lo que es más importante: de entrenarse a base de jugar contra sí mismo constantemente para seguir mejorando.

El sistema que emplea AlphaGo para lograr esto es, en concreto, el ‘aprendizaje por refuerzo’ (o ‘reinforcement learning’) que es una de las tres grandes corrientes que se emplean en la actualidad para entrenar a estos modelos:

·        El ‘aprendizaje por refuerzo’ se produce cuando una máquina aprende por medio de prueba y error hasta alcanzar la mejor manera de completar una tarea dada. Por ejemplo, Microsoft utiliza esta técnica en entornos de juego como Minecraft para ver cómo los ‘agentes de software’ mejoran su trabajo. A través de ella el sistema aprende a modificar su conducta a base de “recompensas” para que resuelva la tarea asignada, sin programarlo específicamente para que lo realice de una forma determinada.

·        ‘Aprendizaje supervisado’, se produce cuando se entrena a las máquinas con datos etiquetados. Por ejemplo, fotos con descripciones de los elementos que aparecen en ellas. El algoritmo que utiliza la máquina es capaz de seleccionar esas etiquetas en otras bases de datos. Así, si se ha etiquetado un grupo de imágenes en las que se muestran perros, la máquina puede identificar imágenes similares.

·        Finalmente, en el caso del ‘aprendizaje no supervisado’, las máquinas no identifican patrones en bases de datos etiquetadas, sino que buscan similitudes. En este caso, los algoritmos no están programados para detectar un tipo específico de datos, como ocurría con las imágenes de perros, sino que buscan ejemplos que se parezcan y puedan agrupar. Es lo que ocurre, por ejemplo, en el caso del reconocimiento facial, en el que el algoritmo no busca unos rasgos concretos, sino una serie de patrones comunes que le ‘dicen’ que se trata del mismo rostro.

Flexibilidad, adaptación y creatividad

Lo modelos de ‘machine learning’ y en concreto el aprendizaje por refuerzo o ‘reinforcement learning’ tienen una característica que los hace especialmente útiles para el mundo empresarial. “Es su flexibilidad y su capacidad para adaptarse a los cambios en los datos a medida que van entrando en el sistema y aprender de las propias acciones del modelo. Ahí radica el aprendizaje y el dinamismo de los que carecían las técnicas previas”, añade Juan Murillo.

En el caso de AlphaGo, esto significa que la máquina se adapta en función de los movimientos del contrincante, y emplea esta información nueva para mejorar el modelo constantemente. La última versión de esta computadora, llamada AlphaGo Zero, ya es capaz de acumular miles de años de conocimiento humano en tan solo unos días funcionando. Además, “AlphaGo Zero también descubrió conocimiento nuevo, desarrollando nuevas estrategias creativas y movimientos no convencionales”, explica DeepMind, la empresa filial de Google responsable de su desarrollo, en un artículo.

Esta capacidad de adaptación y de invención sin precedentes tiene un enorme potencial de cara al futuro para mejorar disciplinas científicas tan dispares como la creación de proteínas sintéticas o el diseño de antenas más eficientes. “Las aplicaciones industriales de esta técnica incluyen optimizar, de forma continua, cualquier tipo de ‘sistema’”, explica José Antonio Rodríguez, científico de datos senior en la Factoría de IA de BBVA. También en el mundo de la banca, el aprendizaje profundo permite “crear algoritmos que pueden ajustarse a cambios en el comportamiento de los mercados y clientes, para balancear oferta y demanda, por ejemplo, ofreciendo precios personalizados”, concluye Rodríguez.

Otro ejemplo es la mejora de sistemas como los de los coches autónomos, que han dado grandes pasos en los últimos años gracias al ‘deep learning’, ya que les permite mejorar su precisión progresivamente cuanto más conduzcan y más datos puedan analizar. Las posibilidades del ‘machine learning’ son virtualmente infinitas mientras existan datos disponibles de los que aprender, y algunos investigadores están incluso poniendo a prueba los límites de lo que llamamos creatividad, empleando esta tecnología para hacer arte o escribir artículos.

Fuente: BBVA


jueves, enero 27, 2022

SALUD DIGITAL EN CENTROAMÉRICA: LECCIONES APRENDIDAS DEL 2021

 


El 2021 ha sido un año complejo en términos de salud en América Latina debido a la pandemia de COVID-19, tanto por el impacto que ha tenido en los servicios de salud en la mayoría de países, los cuales se han visto colapsados ante el incremento de casos, mayormente en la tercera ola de la epidemia, y con la limitación de, en un primer momento, obtener vacunas para satisfacer la demanda de la población y, en una segunda instancia, contener y mitigar los importantes brotes de infodemia en contra de la aplicación de las mismas. 

En Centroamérica, Guatemala es el país con más casos reportados (8 en ALC1), seguido por Costa Rica (9 en ALC) y en tercer puesto Panamá (12 en ALC), siguiendo la misma tendencia de los países más afectados por la crisis sanitaria: Colapso de hospitales, insuficientes profesionales de la salud, etc. Lo anterior, sumado a la crisis económica, incremento en las tasas de violencia y la brechas de equidad cada vez más profundas, hacen de la subregión uno de los lugares más complejos a nivel mundial.

         Transformación Digital en Salud

Tal como se ha vivido a nivel global, la pandemia de COVID-19 ha acelerado la adopción de tecnologías digitales en el sector salud con una especial intensidad al inicio de la crisis sanitaria en el 2020, y una segunda “ola” con las vacunas. Los países centroamericanos no han sido la excepción y, como ha sucedido también a nivel mundial, aquellos países que ya venían en un proceso ordenado de transformación digital (no exclusivamente en salud) a través de sólidas estrategias de gobierno digital, fortalecimiento la gobernanza necesaria y los marcos regulatorios correspondientes, han presentado mejores resultados. Hacemos un breve análisis a continuación de las lecciones aprendidas durante el 2021 en la subregión centroamericana desde una visión holística de la transformación digital en salud.

         Gobernanza, regulación y cumplimiento.

Se han adoptado muchas estrategias digitales en salud pública, algunos programas de salud pública y en la atención en salud, pero muchas de estas intervenciones carecen aún del marco de gobernanza necesario para garantizar la normatividad, regulación y sostenibilidad necesarias para que las estrategias tengan un impacto, sean escalables (mucho se ha quedado en pilotos) y que se pueda dar el mantenimiento en el tiempo a través de la inversión nacional adecuada. Ninguno de los países centroamericanos cuenta con una estrategia de salud digital nacional vigente, lo cual es un reflejo claro de lo antes mencionado.

No obstante, podemos destacar como pasos importantes de mejora en esta materia durante el 2021, la implementación del índice global de salud digital en Costa Rica y El Salvador (pendiente de publicación) y el resto de Centroamérica con apoyo de la RECAINSA o la evaluación de madurez de los sistemas de información para la salud (IS4H) realizados por la Organización Panamericana de la Salud (OPS).

         Datos, procesos y estándares.

Muchas de las intervenciones digitales durante la pandemia han sido sobre los mismos modelos de atención, salvo la atención de urgencias asociadas a la epidemia, por lo cual hemos visto como aplicaciones mejor o peor desarrolladas no logran calzar y son desechadas fácilmente y reemplazadas por las clásicas hojas electrónicas, tan prácticas como vulnerables. Existe una ausencia de estándares para la codificación, interoperabilidad (técnica, semántica y organizacional) e integración de los datos para toma oportuna de decisiones, y también de buenas prácticas en cuanto a privacidad y seguridad de la información de los pacientes, incluyendo aspectos de bioética no regulados. 

Aunque hay mucho trecho por recorrer en este tema, se han abiertos diálogos regionales importantes para la adopción de arquitecturas de datos mejor estructuradas, diseñadas para el intercambio de datos en salud, tanto a nivel nacional como en la subregión centroamericana. En ese sentido se ha iniciado un trabajo importante en la difusión de buenas prácticas sobre arquitectura empresarial y gestión de datos de salud, intercambio de información de salud e interoperabilidad basada en estándares.

         Capital humano y cultura digital.

La brecha digital ha quedado evidenciada durante la adopción de soluciones de software en los trabajadores de los servicios públicos de salud, pero también en la ciudadanía en general. La pandemia ha hecho posible la adquisición de soluciones de software gracias a la movilización de recursos financieros, sin embargo, los paradigmas en los modelos de gestión y de operación dentro del sector salud no han sido transformados, al menos de una forma integral. 

Sin embargo, el hecho de que el problema sea bastante reconocido por algunos tomadores de decisiones permite augurar que en el corto plazo podremos observar mayor oferta formativa a través de universidades centroamericanas y otras organizaciones. Ejemplo de ello es la revisión curricular que está llevando a cabo la Universidad Estatal a Distancia de Costa Rica, o el  de la RECAINSA.

Intencionalmente no abordamos el tema de tecnologías digitales porque consideramos que hay demasiada dinámica en la adopción de aplicaciones en una primera instancia para la rastreo, identificación y seguimiento de casos, y en 2021 con las soluciones de software para el registro de la vacunación, incluyendo los aspectos de la cadena de abastecimiento y monitoreo de los eventos adversos, entre otros.

El 2022, a pesar de los grandes retos, promete aspectos interesantes a seguir como es la adopción regional del índice global de salud digital, la aplicación de los 8 principios rectores de la transformación digital del sector salud o la potencial creación de un capítulo centroamericano de HL7. Estén atentos, COMING SOON.

Las opiniones expresadas en los artículos son responsabilidad exclusiva del autor o los autores y no representan necesariamente la posición de la Junta Directiva y del Equipo Coordinador de la Red Centroamericana de Informática en Salud.

Este artículo ha sido publicado originalmente en la Revista Digital E-Health Reporter Latinoamérica Vol. 2 de diciembre 2021 y puede ser consultado en este vínculo.

Daniel Otzoy

Digital Transformation Specialist | Digital Health Advisor | HIMSS Future50 2021

 

Fuente: Salud Digital en Centro América


miércoles, enero 26, 2022

Campus Virtual de Salud Pública de la OPS - Enero 2022