En los últimos años, a galope de los desarrollos tecnológicos, especialmente los vinculados con la Inteligencia Artificial (IA) y las plataformas, un mantra suele repetirse casi hasta el cansancio: “Los datos son el nuevo petróleo”. Si bien esta frase refiere a que los datos digitalizados son el insumo más valioso de las empresas y productos digitales, muchas veces suele velar que el llamado proceso “de datificación” y muchos de sus principales desarrollos tecnológicos asociados, como la IA, lejos están de ser algo reciente sino que vienen de larga data.
La datificación comprende los procesos donde un elemento de la realidad concreta o simbólica se convierte en datos. Esto implica procesos de recolección, mesura, almacenamiento de esos datos para distintos usos teóricos o aplicados.
Cabe aclarar que la datificación es una constante en la historia de la humanidad que ha atravesado diversas etapas. La primera la podemos identificar durante la antigüedad y el medioevo en los sistemas de medición del tiempo y el espacio, las cantidades, el clima, los tamaños, y, especialmente, para usos vinculados a la construcción y a la logística bélica. Una segunda etapa se sitúa durante la modernidad, en lo que respecta a la aplicación de diversos sistemas de registro de datos a gran escala, como los censos poblacionales, principalmente para la gestión de las poblaciones humanas, apoyados mayormente en los saberes expertos de la medicina, la biología y la economía política.
El desarrollo de las tecnologías digitales y la creación de ARPANET, antecesora de Internet, permiten ir visualizando que, desde la década de 1970, se empieza a entrever una tercera etapa de la datificación, en donde el soporte en bits de estos artefactos habilitó el disponer de bienes “no rivales”, fácilmente replicables y que no se degradan con el uso que también presentaban una novedad disruptiva. En pocas palabras, los mismos bits que operaban para procesar, reproducir, transmitir y convertir información digital también habilitaban para su almacenamiento y, especialmente, para luego poder reutilizar aquello que se almacenaba, es decir, para convertir a esos bits en datos mesurables y reapropiables.
Con el paso del tiempo, esta cualidad fue optimizándose al calor de los desarrollos e innovaciones tecnológicas, especialmente con el despliegue y masificación de Internet y de los diversos dispositivos interconectados a ella.
Tres hitos tuvieron un peso decisivo en esta etapa. En primer lugar, la invención de las cookies en 1994 abrió la puerta al almacenado de los datos aunque, por aquella época, solo por un brevísimo lapso de tiempo. En segundo lugar, los atentados a las Torres Gemelas en 2001 fueron el principal motivo para modificar la duración y localización de las cookies, especialmente aludiendo motivos de seguridad. En poco tiempo, el almacenamiento de datos pasó de la excepción a la norma, principalmente motorizado por las nacientes plataformas de redes sociales que vieron en estos mecanismos la posibilidad de ofrecer publicidad y anuncios orientados. Finalmente, en tercer lugar, la salida del smartphone en 2007 significó un nuevo salto de escala. La posibilidad de disponer de un dispositivo que habilite la conexión a Internet en todo momento y lugar, y que, a la vez, dispusiera de geolocalización, abrió la puerta a un incremento exponencial de la cantidad de datos producidos y plausibles de ser almacenados, lo que finalmente ocurrió por parte de las principales empresas de plataformas en cuyos “terrenos” sucedían los intercambios, búsquedas e interacciones.
Estos sucesos, además de habilitar un crecimiento y valorización exponencial de las empresas de plataformas y el nacimiento de la economía de las aplicaciones, también tuvo un fuerte impacto en otro desarrollo tecnológico que venía firme pero rezagado: la Inteligencia Artificial.
Esta fue anunciada por primera vez en 1956 en la Conferencia de Dartmouth y fue atravesando a lo largo de las décadas distintas etapas, lógicas e innovaciones, siendo también centro de entusiasmos y desilusiones. Iniciando con el procesamiento de figuras geométricas y funciones aritméticas, pronto las investigaciones en IA fueron incorporando distintas bases de datos digitalizadas de la época para ir optimizando sus funcionalidades y despliegues. Si bien poco a poco se fueron ampliando las bases de datos disponibles para el entrenamiento de los desarrollos, las limitaciones encontradas hicieron que los entusiasmos dieran paso a dos, así llamados, “inviernos de la IA”, uno en los 70s y otro en los 90s. Pese a esta situación, y a los recortes presupuestarios que implicaron, la masificación de Internet y, especialmente, de la web, del smartphone y de las plataformas digitales permitieron disponer de enormes bases de datos actualizadas en tiempo real que habilitaron un nuevo salto de escala posible en los entrenamientos, los desarrollos y los resultados logrados. Tal fue el renovado entusiasmo con las mejoras obtenidas que, en 2011, cuando se presentó la proyección hacia una Industria 4.0, la Inteligencia Artificial volvió a ser identificada como uno de los principales protagonistas del futuro próximo.
La pandemia del COVID-19 fue otro de los hitos en esta historia, dado que las medidas mundiales de aislamiento implicaron una masificación del uso de diversas plataformas para sostener los espacios de trabajo, educación y sociabilidad como, así también, un aumento exponencial de la cantidad de datos generada. Estas nuevas bases engrosadas en cantidad y calidad, en conjunto con nuevas innovaciones para optimizar su procesamiento, habilitaron que, al poco tiempo, nuevos adelantos también fueran puestos a disposición del amplio público.
No es casualidad que distintas empresas, entre las que se encuentra la ahora famosa OpenAI, pronto habilitaran las versiones beta de sus IA generativas de texto, imagen, video y audio para que el público masivo las pruebe. Se lograba así disponer gratuitamente de claves para su mejora general como también para incrementar sus bases de datos disponibles para su entrenamiento.
La última llagada de Llama, la IA de Meta, a WhatsApp e Instagram pareciera seguir en esa misma dirección, abriendo la experiencia de la Inteligencia Artificial Generativa al público masivo tanto para su optimización, como para también el acceso al registro de nuevos volúmenes de datos que sirvan para su entrenamiento y mejora.
Si bien los datos siempre han sido claves en la historia de la humanidad en las últimas décadas el proceso de datificación pareciera avanzar a pasos acelerados. En este sentido, en su función de “ser el nuevo petróleo”, la valorización de los datos cada vez más impulsa la lógica de la innovación y producción sociotécnica en todas sus esferas, de las cuales la IA es solo una de las que mayores luces recibe actualmente. Sin embargo, es necesario destacar que, paulatinamente, distintos Estados y organizaciones de la sociedad civil toman nota e intervienen respecto de los lineamientos sobre la privacidad y el extractivismo de los datos, como también sobre los impactos que los distintos desarrollos tecnológicos basados en ellos van teniendo en la economía, la cultura, la democracia, la educación y la vida cotidiana.
Si bien el futuro es difícil de discernir, el pasado muchas veces puede ayudar a traer claves de interpretación para repensar las acciones, medidas y, sobre todo, regulaciones por venir.
Doctor en Ciencias Sociales. Becario posdoctoral del CONICET. Investigador del IDEPI-UNPAZ y del IIGG-UBA.
Fuente Ambito