Los objetivos de predecir e inferir están íntimamente ligados con la efectividad y la interpretabilidad de un método. Existen métodos extremadamente efectivos para la predicción, como por ejemplo lo son las redes neuronales51,52 o los bosques aleatorios53. Sin embargo, estos métodos son difíciles de interpretar; es difícil determinar cuáles son las variables que impactan la predicción, por lo que es complejo inferir relaciones entre las variables predictoras y la respuesta, o entre las variables predictoras. Por el contrario, métodos tradicionales para realizar inferencia, como la regresión multivariada54,55, son fácilmente interpretables, pero suelen tener un peor desempeño que otras técnicas al realizar predicciones.
El flamante premio Nobel a Esther Duflo, Abhijit Banerjee y Michael Kremer es un indicio claro de que una parte fundamental del análisis empírico de la política requiere experimentos correctamente diseñados, como los de la agronomía o la medicina. A modo de ejemplo, a fines de evaluar si una droga tiene un efecto (causal), es relevante comparar a una persona a quien se la administró dicha droga con exactamente la misma persona curso de ciencia de datos en la circunstancia en la que no se le administró. Un serio problema filosófico es que la decisión de administrar una droga automáticamente impide poder observar a la misma persona en su circunstancia contrafáctica, es decir, la misma persona no habiéndosele administrado la droga. El experimento científico es un hito en la historia de la ciencia, entendido como una herramienta para la construcción de contrafácticos.
La regulación de la inteligencia artificial se acelera después de que controle ya todos los ámbitos
Esto conecta claramente con una orientación de los artículos sobre big data hacia los métodos cuantitativos, mientras que en los de Twitter, aunque encontramos un acento en los métodos cuantitativos, un grupo sustancial de artículos emplean presupuestos propios de los métodos cualitativos o son de carácter mixto (Figura 7). Lo que hemos encontrado en la revisión de la literatura, en definitiva, es un conjunto diverso de tipos de procesamientos, una variedad de herramientas implementadas de forma pragmática a veces porque son más accesibles, con el fin de responder a las preguntas de investigación. Este desarrollo y la diversidad de aplicaciones hace prever que el futuro en este campo seguirá aportando multiplicidad de herramientas y estrategias para abordar esta fase intermedia de la investigación en migraciones cuando se emplean datos de Twitter y, si cabe, de otros medios sociales.
- La álgida discusión reciente sobre la medición de la pobreza en Argentina provee un claro ejemplo.
- Pero a diferencia de estos últimos, las limitaciones conceptuales y operativas para su utilización son muy superiores.
- Sin embargo, dada la posición monopólica de muchas de estas plataformas, no es del todo clara la capacidad que tendrán los investigadores de acceder a información relevante.
- Afortunadamente, como señalan Cavallo y Rigobon (2016), las tecnologías de web scrapping han avanzado lo suficientemente rápido como para que esto no sea un inconveniente.
Las empresas capturan el mayor volumen de datos, para luego clasificarlos y transformarlos, con el fin de comercializarlos –proceso denominado datificación de la realidad4–. Un aspecto relevante es conocer si la información externa e interna de la organización resulta de utilidad para los diferentes consumidores, en función de esta última se determinará el grado de valor del Big Data (Labbé Figueroa, 2020). Si bien no existe una definición de calidad de la información estadística acordada internacionalmente, en las Oficinas de Estadística tradicionalmente se ha tenido en cuenta la exactitud como el aspecto principal de la calidad (Arribas et al., 2003).
Inteligencia Artificial Generativa, la nueva era de la IA
Por último, muchas nuevas fuentes de datos digitales no se adecuan a las responsabilidades de las Estadísticas Oficiales. Estas últimas, en el marco de la gestión de DA, deben velar por la calidad de los datos –cumpliendo con los estándares de calidad y confidencialidad– (Salvador y Ramió, 2020; Vásquez Valdivia, 2021), cobrando especial importancia atender a la evidencia, la seguridad y privacidad del contenido de los nuevos datos (Christodoulou et al., 2018). Además, dado los principios éticos elementales del sector público, se debe garantizar la transparencia e identificar https://www.elbravo.mx/el-curso-de-ciencia-de-datos-que-te-prepara-para-un-trabajo-en-la-industria-de-ti/ la existencia de errores de estos grandes volúmenes de datos (Paliotta, 2018). En el caso del uso de fuentes secundarias seleccionadas por las estadísticas oficiales, su tratamiento es diferente a las fuentes primarias. Por ejemplo, el uso de registros administrativos requiere de un proceso de conversión estadística, centrado en el análisis de parámetros de calidad que, por la cantidad y diversidad de objetivos, variables, métodos de registro, tratamiento y archivo de los registros –ajenos a los fines estadísticos– resulta complejo (Gauna et al., 2020).
- Data Science Central hace exactamente lo que su nombre indica (centro de ciencia de datos) y funciona como un repositorio de recursos en línea donde se puede encontrar todo lo que esté relacionado con la ciencia de datos y los big data.
- Según un estudio reciente, el mercado latinoamericano de Big Data and Analytics (BDA) alcanzó ingresos por valor de US$2.992,5 millones en 2017.
- Sólo por mencionar una definición de información a partir de la CI, Faibisoff y Ely (1976) señalan que, además de contener
datos, la información se encuentra constituida por ideas, símbolos o un conjunto
de símbolos con un significado potencial.
Gracias a estos dispositivos algunas regiones en donde no existía el uso de teléfonos y servicios de larga distancia han logrado tener acceso a la Internet, abriendo paso a las bondades y los riesgos que esta tecnología tiene aparejados. En un mundo globalizado, la incorporación del uso de tecnologías en las distintas sociedades ha tenido una penetración constante. Sin embargo, parece que ante la incapacidad de las normas jurídicas provenientes de los Estados para evitar un mal uso de los análisis de macrodatos, la solución a esta problemática sigue siendo el apelar, por ahora, a las buenas prácticas de los actores que intervienen en el tema, sean estos proveedores de Internet, administradores de sitios web o cualquier otro actor, incluidos los mismos usuarios de Internet.
Feudalismo digital
La parte central, la “plataforma de minería de Big Data” (nivel I), que se enfoca en el acceso a los datos de bajo nivel y computación. Los desafíos en el intercambio de información y la privacidad, los dominios de aplicación de Big Data y el conocimiento forman el nivel II, que se concentra en la semántica de alto nivel, las aplicaciones de dominio de conocimiento y los problemas de privacidad del usuario. Es más, aunque no fue un objetivo planteado al inicio de este trabajo, se logró identificar a lo largo del desarrollo del mismo casos concretos del uso del análisis de big data en favor de los derechos humanos. Por otro lado, una parte fundamental de los pronunciamientos jurisdiccionales son los casos específicamente llevados a los tribunales, como es el caso de la sentencia Schrems ante el Tribunal de Justicia de la Unión Europea. Este caso involucra el uso de técnicas de big data para recabar información de personas sospechosas con la intención de prevenir y sancionar actos terroristas.