BOE-A-2023-25011 Ley 10 2023, de 9 de noviembre, del Plan Vasco de Estadística 2023-2026 y de tercera modificación de la Ley de Estadística de la Comunidad Autónoma de Euskadi

Por ejemplo, utilizar aplicaciones como Google Glass, Epson Moverio, Pebble y Fitbit (Wei, 2014, p. 53), que monitorean las actividades de sus usuarios, hace posible reconstruir el mundo alrededor de ellos por medio de coordenadas de localización, velocidad de movimiento y dirección, así como gracias a las fotos de alta resolución y, en algunos casos, hasta la captura de sonido (Paterson & Maeve, 2018, p. 4). Actualmente, los individuos alrededor del mundo pueden ver vulnerados sus derechos humanos a través del manejo indiscriminado de la herramienta big data, ya que la información que se genera día a día y segundo a segundo por medio de los dispositivos tecnológicos -como los teléfonos inteligentes- abarca desde los hábitos de consumo de las personas hasta aspectos de su vida privada, como pueden ser sus creencias religiosas o sus Un curso de tester de software que te prepara en tan sólo 5 meses datos biométricos. Así, la vulneración de derechos humanos se puede dar desde la manera en que se generan, almacenan y, en general, se tratan los datos de las personas, quienes en ocasiones desconocen cómo es que se están obteniendo y utilizando sus datos. Para el caso de análisis de datos robustos se requiere de una gran infraestructura tecnológica, como superordenadores dedicados específicamente para trabajar con IA, donde empresas como Microsoft e IBM están apostando con el objetivo de encontrar tratamientos que permitan combatir la COVID-19 en un tiempo relativamente corto. La particularidad de trabajar con este tipo de tecnología es que puede ejecutarse desde diversos lugares del mundo, facilitando el acceso al código abierto a grupos de investigadores que trabajan en diversas áreas de la IA, el Big Data y ciencia de datos.

Como tecnologías de Big Data se clasifican aquellas que dan soporte a la captura, transformación, procesamiento y análisis de los datos, ya sean estructurados, semiestructurados o no estructurados. Se decide presentar estas tecnologías ya que son software de libre uso y que permite la generación de soluciones de Big Data de acuerdo con las necesidades particulares de un dominio de datos u organización. Cabe aclarar que existen un mayor número de tecnologías que soportan Big Data, tanto libres como propietarias, pero para efectos de este documento se ha acotado de acuerdo con lo anteriormente expuesto y tomando las tecnologías que dieron las bases iniciales al ecosistema Big Data. La Organización Estadística de la Comunidad Autónoma de Euskadi, a su nivel operativo, conservará y custodiará la información obtenida hasta que no sea necesaria para el desarrollo de operaciones estadísticas, que seguirá sujeta al secreto estadístico en los términos señalados en la presente ley, aun cuando, en su caso, se hubieren aprobado los correspondientes resultados. Los programas estadísticos anuales determinarán y definirán las características constitutivas de las operaciones estadísticas a que se refiere artículo 1.3, en el marco de las dotaciones presupuestarias.

El 67% de los responsables IT aprecia mejoras en la seguridad gracias al streaming de datos

La aplicación de nuevos sistemas para la creación, almacenamiento y difusión de la información ha tenido como uno de los factores clave el exponencial desarrollo de la apertura de datos a través de mecanismos técnicos y computacionales. El open data y el big data, así como las redes sociales, han transformado el trabajo en los medios de comunicación en un mundo informativamente globalizado. Mediante el análisis sobre la literatura existente, se analizan los procesos, métodos e instrumentos aplicados en la documentación de medios y en el periodismo a partir de la perspectiva del big data, evidenciando casos particulares. Aparte de los cambios rutinarios de los profesionales, se observa una serie de contradicciones entre la web semántica y el big data conforme a los objetivos de transparencia y comprensión de la información. Finalmente es necesario plantear el valor real que la difusión de datos aporta frente al filtrado de éstos desde el plano puramente documental.

El supercómputo, herramienta esencial en el ámbito científico – La Crónica de Hoy

El supercómputo, herramienta esencial en el ámbito científico.

Posted: Thu, 04 May 2023 07:00:00 GMT [source]

En este contexto,
Peset, Ferrer-Sapena y Subirats-Coll
(2011) plantean el open data como una eficaz vía para
detectar duplicados documentales, eliminar las posibles ambigüedades terminológicas
y suministrar la información y datos a usuarios de otras especialidades
profesionales, como es el caso particular de los periodistas. A juicio de
Peiró y Guallar (2013), el periodismo de
datos está básicamente en relación con el periodismo de investigación, el periodismo
de precisión, la documentación, la infografía, el fact checking y
el open data y el big data. Enmarcados en los cambios culturales y tecnocomunicativos a los que asistimos, este trabajo pretende detectar las consecuencias teóricas y prácticas para la bibliotecología y la documentación, en el marco de las prácticas periodísticas, de la expansión de técnicas, programas y procedimientos al amparo de los desarrollos derivados del big data y las redes sociales, ámbitos diferenciados pero claramente unidos. Así, las bondades y los riesgos del uso del big data en relación a los derechos humanos son dos caras de la misma moneda. La calidad de los datos es otro factor que incide y debe de ser considerado pues hay tres situaciones en las que la pureza de los datos puede afectar los resultados. Esto influye por la manera en que se realiza el análisis de los grandes cúmulos de datos; por ello, es preciso entender que, por un lado, se encuentra quien recoge los datos de manera bruta y los vende.

Big Data: una exploración de investigaciones, tecnologías y casos de aplicación

La IA en conjunto con el Big Data han demostrado ser herramientas fundamentales para ayudar al sector salud a detectar y controlar este virus con cierto margen de éxito, permitiendo procesar grandes cantidades de datos estructurados y no estructurados con alto grado de complejidad, que al ser combinados con algoritmos propios de la IA permiten realizar predicciones basado en patrones históricos y bucles de retroalimentación, entre otros. Lo importante de esta sinergia, es que ayuda de manera más eficaz a la atención médica, incluso una vez terminada la crisis. https://disenowebakus.net/noticias/tecnologia/tester También, con el aprendizaje que se está gestando permanentemente ya hay desarrollos de algoritmos predictivos que permiten identificar poblaciones que son o serán más propensas a ser infectadas por la COVID-19, incluso determinar en términos probabilísticos quienes podrán padecer complicaciones graves con base en parámetros como edad, género, historial clínico, masa corporal, entre otros. Con este tipo de desarrollo, estos algoritmos pueden extenderse a ser aplicados a otro tipo de enfermedades, contribuyendo de esta manera a mejorar el servicio sanitario.

  • En el trabajo de Paraise y Dagiral (2013) se habla de la aceptación de la implicación tecnológica y automatizada por parte de los periodistas, si bien no todos se enfrentan del mismo modo al movimiento open data.
  • Los datos abiertos se denominan así porque son de libre acceso y pueden ser utilizados, reutilizados y distribuidos por cualquier persona con la única obligación de presentar la atribución de autoría y sabiendo que pueden compartirse sin restricciones tecnológicas en la línea de la Open Knowledge Definition.
  • Para el caso del COVID-19, el aprendizaje automático se emplea para el diagnóstico e identificación de población que está en mayor riesgo de contagio.
  • Pero la incorporación de toda la información dis ponible, en grandes volúmenes y de variados formatos, hizo que, en algunos casos, estos datos se convirtieran en macrodatos.
  • Sin embargo, también genera muchas dudas en cuanto a un uso malicioso y controlador por los intereses de grandes compañías de la industria2, así como también se advierte sobre los excesos de la cuantificación3, lo que podría llevar de vuelta al reduccionismo cuan titativo, implicando un retroceso en cuanto al valor que ha cobrado la comprensión de los fenómenos en estudio.
  • Por esto y otras razones, la Unión Europea (UE) ya ha tomado precauciones, mediante un reglamento de protección de las personas con relación al tratamiento de datos personales y a la libre circulación41.

Los Macrodatos o Big Data, hasta ahora no tiene una definición muy precisa, pero hay cierta coinciden cia en definirlos como aquella información recopilada electrónicamente que, por su volumen, formato y di versidad, no puede ser procesada con las herramientas informáticas comunes, por lo que requiere de solucio nes computacionales de alta complejidad8,9,10,11. De esta forma se puede afirmar que la “datificación” en el ámbito de la salud es una tradición muy antigua en cambio, la digitalización ha llegado de la mano con la incorporación de las TI en la atención de salud. Éstas han permitido, entre otros, la generación del Registro Electrónico de datos de Salud (RES o en inglés EHR) o Ficha Clínica Electrónica (FCE), los cuales compilan las historias clínicas de una persona5 y que pueden ser consultados por personal de salud6. Esta innovación tecnológica ha puesto a disposición una cantidad ilimitada de información susceptible de ser analizada, la cual abre múltiples oportunidades para explorar soluciones clínicas o administrativas que vayan en beneficio de la salud de un individuo, pero también, se abren flancos de precaución en cuanto al tratamiento confidencial de los datos clínicos y sus as pectos legales, entre otros.

DESARROLLO DE FÁRMACOS

El presente artículo tiene como objetivo brindar al lector una aproximación sobre los estudios publicados en los últimos años que dan cuenta del manejo de la infraestructura tecnológica y la gestión del conocimiento que se genera a través de los análisis de grandes cúmulos de datos o macrodatos (conocidos también como big data analytics) relacionados al tema de los derechos humanos. Mahout es un proyecto de Apache que tiene como objetivo ofrecer un ambiente para la creación rápida de aplicaciones de aprendizaje máquina escalables y eficientes [31]. Mahout ofrece una suite de algoritmos para clustering, categorización, filtrado colaborativo, clasificación y programación evolutiva. Algunas de sus principales aplicaciones prácticas se enmarcan en la realización de clúster de documentos, recomendaciones y organización de contenidos [32]. El machine learning o aprendizaje máquina es el trasfondo principal de Mahout y corresponde a un subcampo de la inteligencia artificial que se centra en el mejoramiento de procesamientos computacionales a partir del análisis de experiencias previas.

LEAVE A COMMENT

Your email address will not be published. Required fields are marked *