palabraiSYS es una fundación para desarrollar proyectos sociales de salud digital

Teoria de Normalizacion del Proceso

El British Journal of Medicine Open publica un protocolo, mediante el cual, un grupo de investigadores británicos se propone hacer una revisión sistemática de investigaciones cualitativas, sobre los factores determinantes en el compromiso de pacientes y público en intervenciones de eSalud

Para la revisión se incorporan dos teorías sociológicas fundamento empírico, la Teoría del Proceso de Normalización (NPT) y la teoría de la carga del tratamiento BOTT (burden of treatment theory). La revisión sistemática de los estudios cualitativos tendrá como objetivo identificar y sintetizar los conocimientos actuales acerca de las barreras y los elementos facilitadores para enrolar participantes, a través del análisis de una serie de intervenciones de salud, brechas digitales y los aspectos más destacados del conocimiento y posibles áreas para futuras investigaciones. Además, los marcos teóricos ya se han utilizado previamente para ayudar a muchos tipos de síntesis cualitativa, como modelos establecidos que pueden ayudar a explicar el fenómeno en cuestión y hacer que los resultados del estudio hagan más accesible la aplicación práctica. Es por tanto interesante conocer las bases de la NPT.

Heisenberg5El principio de incertidumbre desarrollado por Heisenberg (1927), postula que es imposible conocer conjuntamente con exactitud, la posición y la velocidad de una partícula sub-atómica (en la llamada mecánica cuántica). Cuanto mayor sea la precisión con que determinamos la posición, menor será la de su velocidad.

Podríamos decir que sucede lo mismo en la evaluación de Apps de salud, si se valora exhaustivamente la App, como lo hacen los organismos acreditadores, ganamos en precisión, pero perdemos velocidad (y por tanto alcance); mientras que si valoramos mediante un sistema rápido, como la aplicación de la escala iSYScore, la valoración se puede efectuar más rápida, pero en la dimensión de seguridad, los acreditadores siempre serán los determinantes.

bigdata

El manejo de grandes volúmenes de datos no es nuevo. La gran mayoría de las empresas e instituciones ya llevan mucho tiempo trabajando con muchos datos, y los estudian con elementos como los llamados DataWarehouses, con potentes herramientas analíticas que les permiten tratar de forma adecuada esos grandes volúmenes. Entonces ¿cuál es la diferencia? ¿porqué ahora todo el mundo habla de big data?

La evolución de la tecnología y los menores costes del almacenamiento han hecho que los volúmenes manejados por las aplicaciones hayan aumentado de manera muy importante. La eclosión de los teléfonos móviles, los sensores, el GPS, la iOT y la digitalización progresiva de muchísimas actividades, genera un volumen de datos a una velocidad incomparable y de forma menos estructurada a los usos anteriores.

esperantoYa hace algunas décadas de la digitalización de los primeros datos de salud. La tecnología facilita la creación de registros, de “episodios” o crisis de salud, de antecedentes o Historia clínica, de consumo de fármacos y de multitud de otros datos relativos a la salud. Pero para extrañeza de los externos al sector salud, estos datos raramente se han compartido. Cada centro de salud o hospital, e incluso cada servicio tenía “su manera” de almacenar “episodios” e “historias clínicas”, primero en papel, luego en registros electrónicos. El problema casi nunca ha sido demasiado tecnológico, sino más bien de estándares, acuerdos de cómo construir la comunicación.

Para la comunicación de los diferentes elementos hardware en informática, se idearon los estándar “OSI”, (en inglés, Open System Interconnection), de 7 niveles. Desde el primero, un nivel físico (¿cuántos voltios son un uno y cuantos son un cero?), hasta el nivel 7 o de aplicación. Todos los niveles son necesarios, como los cimientos, el armazón, las tuberías y las paredes de una casa. Y cada nivel tiene su estándar para permitir la conexión.