ENTREVISTA A DANIEL FRAIMAN

En esta oportunidad, tuvimos el gusto de entrevistar a Daniel Fraiman, Director de la Maestría en Ciencia de Datos de la Universidad de San Andrés. Le consultamos sobre algunos aspectos centrales relativos al nuevo fenómeno de la Ciencia de Datos, el Big Data, los algoritmos, y su aplicación dentro de la esfera pública.

FM ¿Qué es la ciencia de datos y desde qué momento cree que adquirió una extendida relevancia?

DF la ciencia de datos es una disciplina que busca conocer cómo mejorar procesos, como tomar mejores decisiones, y cómo crear nuevas oportunidades, siempre basada en datos. Tiene un abordaje científico interdisciplinar y nace principalmente de la intersección entre la estadística y la computación. El dominio y la aplicación es muy amplio, pero nace principalmente a raíz de tres grandes impulsores, por un lado las nuevas tecnologías de toma y almacenamiento de datos, por otro lado la complejidad de los datos, y por otro lado, todo lo que tiene que ver con los nuevos desarrollos que se dan por el acceso de las personas a estos datos. El motor principal efectivamente fue de repente tener una cantidad de datos enorme, la complejidad de los mismos, cómo almacenarlos y cómo permitir que todo el mundo los pueda usar, y yo creo que en la Argentina tomó relevancia en los últimos 5 años.

FM ¿Cómo funcionan el big data y los algoritmos?

DF Por un lado hay algoritmos que buscan modelar el porqué de los valores que uno observa en esos datos y entender el por qué de esos números nos muestra el impacto de un problema. Después existe una clase de algoritmos que lo que busca es encontrar grupos homogéneos o ver como hay que particionar los datos para tener distintos grupos que a priori no conocemos, y la idea es que esa partición sea útil para resolver algún problema. Y por último existe un grupo de algoritmos que intenta resolver el problema de aprendizaje supervisado, que sirve cuando tenemos un dato, que a priori no conocemos y queremos categorizar o ponerlo en alguna de las categorías que ya tenemos, a partir de una muestra, los algoritmos se entrenan y frente a un nuevo dato, pueda determinar a qué categoría corresponde. El big data entra cuando en esa intersección de tratar de responder lo que vos queres estudiar en tiempo real o en desafíos de grandes volúmenes, es lo propio del big data; nos obliga a tener soluciones escalables que sirvan para el problema planteado.

FM ¿Cómo puede la ciencia de datos ser de utilidad para mejorar procesos, servicios y, en general, la eficiencia y transparencia de los gobiernos?

DF A mi me parece que para mejorar la transparencia hay que seguir haciendo todo el esfuerzo posible para disponibilizar datos de calidad, datos actualizados, históricos, por supuesto respetando siempre las leyes de privacidad y protección de datos. La mirada de la ciencia de datos en cualquier área de gobierno me parece que es útil, no se me ocurre un área en donde un científico de datos no pueda aportar valor. Los gobiernos están llenos de situaciones cotidianas en donde generar y contar con datos de calidad nos permite aplicar modelos que ayuden a los gobiernos y a los ciudadanos a identificar con precisión problemas, a decidir cómo invertir recursos fiscales y ayudar a tomar mejores decisiones.

FM¿Cuáles son los desafíos que acarrea la aplicación de la ciencia de datos respecto de eventuales dilemas o cuestionamientos éticos?

DF Por un lado, la ciencia de datos en general se enfrenta a los mismos dilemas éticos que otras disciplinas, tergiversación de datos, manipulación siempre existió y la ciencia de datos no es ajena, pero al ser ciencia, se acerca más a la realidad. En este sentido, tener políticas de datos abiertos permite desentrañar muchos de estos problemas. Por otro lado, creo que realmente falta más legislación nacional e internacional respecto a la toma de datos y su posible uso. Si tu pregunta hace referencia a lo que se denomina como estado predictivo, en donde algunos Estados utilizan inteligencia artificial para hacer predicciones y en base a ello tomar decisiones por ejemplo con respecto a la inmigracion, me parece pesimo, sobre todo pensando en los posibles errores que pueden cometer los algoritmos, siempre existe la posibilidad de que el algoritmo clasifique mal, debido a que la estructura de los datos es altamente compleja, acertarle perfecto es imposible, hay que tener cuidado porque no van a ser 100% certeros. Creo que no deberían los gobiernos dejar en manos de los algoritmos este tipo de decisiones. Sí me parece que deberíamos empezar a debatir más este tema, conversar sobre regulaciones y alcances.

Si te interesó la nota, podés consultar nuestras entregas anteriores, y conocer mucho más sobre la Agenda de Gobierno Abierto.

--

--