Kategoriler
Bootcamp de programación

8 revistas académicas esenciales del mundo del Big Data

Afortunadamente, con una infraestructura de Big Data apropiada es posible analizar datos y proporcionar resultados agregados sin que el analista tenga acceso directo a la información de cada paciente; sólo el algoritmo computacional que implementa dicho análisis manipula los datos. Ahora bien, no existe consenso en la literatura sobre el impacto que tienen el número de seguidores o las redes sociales en la movilización de votantes. Muchas veces el debate curso de desarrollo web se orienta (equivocadamente) a juzgar el hecho de que el número de seguidores en Twitter o RTs, por ejemplo, no implican una relación directa con los votos. Esta es una manera errónea de enfocar el problema, porque las redes sociales y la información que allí circula tiene la capacidad de incidir sobre el comportamiento de las personas a través de otros mecanismos más sutiles y no capturados por los métodos tradicionales como encuestas de opinión.

articulos cientificos de big data

En cualquier caso, en los ejemplos que os vamos a poner, nos vamos a referir de una manera genérica a la obtención y procesamiento de cantidades masivas de datos. La única intención es que os deis cuenta de la cantidad de información que se obtiene hoy en día en ciencia y de cómo necesitamos ayuda para obtener datos, manejarlos y comprenderlos. David Gómez-Ullate es investigador distinguido en la Universidad de Cádiz y profesor titular de Matemática Aplicada en la Universidad Complutense de Madrid, actualmente en excedencia. Su labor reciente se centra en la transferencia de conocimiento al sector industrial en ciencia de datos e inteligencia artificial. En la actualidad dirige proyectos en el sector aeronáutico, seguros y biomédico aplicando técnicas de visión artificial y procesamiento de lenguaje natural. La IA y el radiodiagnóstico están jugando un papel importante en la detección del COVID-19 con un porcentaje superior al 90%, lo que puede incrementarse cuando se entrena el sistema con mayor cantidad de datos, por lo que el Big Data en conjunto con otras disciplinas analíticas son un factor clave para llevar a feliz término un estudio.

Expertos en IA debaten sobre su impacto en la humanidad

Los desafíos en el intercambio de información y la privacidad, los dominios de aplicación de Big Data y el conocimiento forman el nivel II, que se concentra en la semántica de alto nivel, las aplicaciones de dominio de conocimiento y los problemas de privacidad del usuario. En el caso del COVID-19 se han desarrollado diferentes tipos de algoritmos tendientes a la detección temprana de problemas pulmonares, bien a través de imágenes de rayos X (Sánchez, Torres & Martínez, 2020), tomografías o ultrasonido (Fraile, 2020). Las investigaciones en curso basan su desarrollo en la ciencia de datos, debido a que esta proporciona herramientas de análisis que permiten plantear soluciones plausibles bien para lidiar con futuras pandemias como con tratamientos actuales de frente al COVID-19. Por ejemplo, en todo el mundo han surgido comunidades que han creado plataformas que trabajan bajo el modelo de inteligencia colectiva, donde desarrolladores, científicos de datos, investigadores, médicos, entre otros voluntarios, formulan proyectos relacionados con la COVID-19. Una plataforma que centraliza esta información es Helpwithcovid, que cuenta con bibliotecas como el Covid Healthcare Coalition, que permite a cientos de miles de investigadores tener acceso a información clave para trabajar con aprendizaje profundo.

  • El objetivo de la predicción es determinar el valor de la variable de respuesta para una colección de nuevos valores de las variables predictoras, distintos de aquellos que conocemos (Figura 3).
  • También, con el aprendizaje que se está gestando permanentemente ya hay desarrollos de algoritmos predictivos que permiten identificar poblaciones que son o serán más propensas a ser infectadas por la COVID-19, incluso determinar en términos probabilísticos quienes podrán padecer complicaciones graves con base en parámetros como edad, género, historial clínico, masa corporal, entre otros.
  • Respecto a las plataformas basadas en Hadoop, funcionan bien con datos semiestructurados y desestructurados, así como también cuando se requiere de procesos de descubrimiento de datos [10].

Simultáneamente, nuestra capacidad de procesamiento a gran escala se ha incrementado, permitiendo analizar los datos generados por las actividades que realizamos día a día3. Si bien hasta hoy el análisis de datos ha sido una de las piedras angulares del avance científico, tecnológico y económico, es la cantidad de datos disponibles hoy la que ha abierto la puerta a nuevas oportunidades. Por ejemplo, existen patrones de comportamiento de consumidores imposibles de detectar con pocos datos, los cuales se hacen evidentes a gran escala; del mismo modo, los parámetros de ciertos modelos predictivos, que en ausencia de datos suficientes son escogidos gracias a la pericia de profesionales del área, pueden ser estimados de manera precisa cuando la cantidad de datos es masiva. Por lo tanto, es la combinación actual entre la capacidad de almacenar y procesar datos a escala masiva la que ha comenzado a revelar estructuras latentes en las actividades humanas que éstos reflejan.

Big Data 30 artículos

Por otra parte, los dermatólogos pertenecen a 17 países distintos, y su entrenamiento clínico puede generar una exposición dispar a distintos tipos de lesiones; el grupo es además heterogéneo respecto a la experiencia profesional de sus integrantes. Sin mayores detalles acerca de las características de los datos de entrenamiento utilizados, es difícil determinar que otros efectos pueden jugar un rol. Si bien no podemos dar respuesta a estas preguntas, este ejemplo ilustra cómo el marco conceptual presentado nos permite identificar elementos que se deben considerar al interpretar las notas de prensa tras un estudio de este tipo.

  • En la práctica, estudios de esta índole buscan mejorar la certeza tanto en diagnósticos clínicos38,42,43 como radiológicos y de anatomía patológica40,44,45, avanzar hacia una medicina personalizada, identificar poblaciones de riesgo para incluirlas en tamizajes poblaciones e identificar potenciales intervenciones de alto impacto en salud pública46,47.
  • En pacientes pediátricos hospitalizados, sin enfermedades críticas, las e-alertas han sido usadas en sistemas de vigilancia de nefrotoxina relacionadas con IRA, lo cual ha permitido reducir la intensidad de IRA en 42% de los casos27, aunque hay autores que ad vierten que la evidencia científica es aún limitada como para establecer con certeza que las e-alarmas sean de utilidad clínica28.
  • Así, en cuanto a la normatividad en torno a la protección de datos personales, intervienen una pluralidad de actores como son el dueño del dato, el responsable del tratamiento de los datos, el encargado de este tratamiento y, por supuesto, el destinatario de los datos personales, siendo cada uno de ellos pieza clave en el tema de los análisis de grandes cúmulos de datos (Cubillos, 2017, pp. 41-42).
  • Desde hace años, los investigadores se han esforzado en conocer con exactitud la posición de estas letras (nucleótidos), qué cambios de orden de las letras (o sustituciones o “borrado”) de algunas de ellas se asocian con enfermedades, con variantes de enfermedades o incluso con protección frente a ellas.

El volumen en el campo del Big Data demanda grandes recursos de procesamiento y almacenamiento de información, que están representados en la “Variedad” de los datos, que pueden ser de tipo estructurados y no estructurados. Con respecto a la “Velocidad”, hace referencia a la cantidad de datos que se generan periódicamente y requieren de una infraestructura tecnológica escalable que permita su disponibilidad y acceso en cualquier momento. Sobre la “Veracidad” y “Valor”, es imprescindible que los datos almacenados sean veraces, de lo contrario se estarían dilapidando recursos computacionales valiosos en información poco confiable o inservible, que derivan en resultados y toma de decisiones incorrectas. Sobre el “valor”, se entiende en el sentido de extraer información relevante para definir estrategias y toma de decisiones. Para el caso particular del COVID-19, se genera gran cantidad de datos que, al emplear la IA para analizarlos permite diferenciar familias, tratamientos, riesgos, etc., que confluye a disminuir costos en el diagnóstico y tratamiento de un paciente, salvando en el proceso miles de vidas.

Así se pueden usar los datos para lograr negocios más ‘inteligentes’

Lo primero que tenemos que dejar claro es que los que escribimos aquí somo científicos, no expertos en tecnologías de la información, por lo que no profundizaremos mucho en la parte tecnológica. Basada en estos hechos, la COVID-19 ha puesto en la palestra la fragilidad de la humanidad ante un virus que ha demostrado ser altamente resistente y peligroso, con un factor de propagación sin precedente alguno a escala global en tiempos modernos, exponiendo la lasitud del sector sanitario en atender una oleada creciente de infectados que asciende a millones y de víctimas fatales que suma cientos de miles. Aunque se están desarrollando técnicas de diagnóstico más rápidas (Pang, et al., 2020) y terapias y medicamentos antivirales experimentales, quedan desafíos a superar como acelerar los procesos de fabricación y superar los problemas relacionados con la cadena de suministro y abastecimiento (Ledford, 2020). De estos instrumentos internacionales surge una parte importante de las obligaciones para los Estados, que «se asientaENT#091;nENT#093; sobre la base de los llamados órganos de tratados o Comités» (Chinchón & Rodríguez, 2018, p. 153). Dichos comités tienen la facultad de emitir decisiones sobre las temáticas que les competen, aunque estas no son legalmente vinculantes. En un mundo globalizado, la incorporación del uso de tecnologías en las distintas sociedades ha tenido una penetración constante.

Gracias a estos dispositivos algunas regiones en donde no existía el uso de teléfonos y servicios de larga distancia han logrado tener acceso a la Internet, abriendo paso a las bondades y los riesgos que esta tecnología tiene aparejados. Sin embargo, parece que ante la incapacidad de las normas jurídicas provenientes de los Estados para evitar un mal uso de los análisis de macrodatos, la solución a esta problemática sigue siendo el apelar, por ahora, a las buenas prácticas de los actores que intervienen en el tema, sean estos proveedores de Internet, administradores de sitios web o cualquier otro actor, incluidos los mismos usuarios de Internet. En esta sección se presenta la exploración de algunos trabajos que presentan una visión general de las tendencias y enfoques en el desarrollo de investigaciones en el campo de Big Data.

En una segunda fase se dan los resultados del análisis de datos, que de haberse realizado con datos impuros ya tendrá cierto tipo de sesgo en los resultados; y, finalmente, pero no menos importante, la protección legal que se accionará si se ha hecho una discriminación injusta con los resultados obtenidos del análisis (Hoeren, 2017, p. 27). Como tecnologías de Big Data se clasifican aquellas que dan soporte a la captura, transformación, procesamiento y análisis de los datos, ya sean estructurados, semiestructurados https://ekuatio.com/por-que-un-curso-online-de-desarrollo-web-es-imprescindible-para-aprender-la-profesion/ o no estructurados. Se decide presentar estas tecnologías ya que son software de libre uso y que permite la generación de soluciones de Big Data de acuerdo con las necesidades particulares de un dominio de datos u organización. Cabe aclarar que existen un mayor número de tecnologías que soportan Big Data, tanto libres como propietarias, pero para efectos de este documento se ha acotado de acuerdo con lo anteriormente expuesto y tomando las tecnologías que dieron las bases iniciales al ecosistema Big Data.

Infodemiología Revista Panamericana de Salud Pública – Pan American Health Organization

Infodemiología Revista Panamericana de Salud Pública.

Posted: Wed, 12 May 2021 16:39:06 GMT [source]