Cada día asistimos a una omnipresencia de la Inteligencia Artificial y del análisis de datos. Se acaba de aprobar en España la Estrategia Nacional de Inteligencia Artificial y cada día aparecen voces acerca de los rasgos éticos que deben acompañar a esta materia. El presente artículo parte de la que creemos es una necesidad imperiosa, tanto desde el punto de vista epistemológico como desde el impacto que pueden tener las TIC (Tecnologías de la información y la Comunicación) en la sociedad. Me refiero al paulatino cambio en el paradigma de las ciencias humanas y sociales de la mano de la revolución tecnológica. A priori, parecería que nos encontramos ante un avance decisivo para este tipo de disciplinas y su aplicación práctica en la sociedad, sin embargo, creemos que se están invirtiendo las categorías y se hace pasar como fin lo que debería ser un instrumento.

Creemos que existe la necesidad de analizar el impacto de las TIC en la Ciencias Humanas, partiendo desde una perspectiva epistemológica y sus consecuencias prácticas. Ya en el pasado, bajo la influencia del paradigma de las llamadas “ciencias puras” (positivismo, neopositivismo, cuantitavismo, etc.) ha perturbado a las que estudian al hombre y sus relaciones, reduciendo al ser humano a un mero objeto observable, cuantificable y previsible. Ese fenómeno de cosificación del ser humano podría repetirse, esta vez, bajo el influjo de las nuevas tecnologías (big data, algoritmos, inteligencia artificial, RRSS, etc), dejando de lado el paradigma comprensivo para pasar a uno explicativo y cuantitativo.

Partimos de los postulados de Thomas Khun cuando planteó que la ciencia es un constructo basado en convenciones sociológicas, sicológicas, culturales e, incluso, políticas, a ello le denominó “paradigma”. Desde esta perspectiva y haciendo un somero análisis diacrónico, observamos que existe una tendencia hacia un cambio de paradigma en las ciencias sociales, incluidas disciplinas como la sociología o la ciencia política. Si bien es cierto que estos paradigmas siempre tienen una base de racionalidad, el problema lo encontramos en su objeto de estudio: el hombre. 

La reducción mecanicista del estudio del ser humano no solo tuvo consecuencias de perder la esencia ontológica del mismo, sino que, además, hubo una serie de externalidades negativas en el mundo real. Nos referimos a que la cosificación del individuo no solo derivó en un desconocimiento de la motivación, emocionalidad o profundidad del ser, sino que también lo redujo social y políticamente hasta convertirse en una mera pieza de lo que se denominó un “bien superior”. Nos referimos, principalmente, a los “metarrelatos escatológicos” del llamado periodo de entreguerras que medraron a lomos de la demagogia, el populismo, la crisis social y económica y, como decía, de la cosificación del individuo.

Uno de los principales problemas lo encontramos en el llamado “monismo metodológico” propuesto para las llamadas “ciencias puras” (que contemplan al ser humano como una cosa cuantificable y, por tanto, predecible y moldeable). Seguir los postulados metodológicos del positivismo, neopositivismo, falsacionismo, etc. obvia que el comportamiento del ser humano (individual y social) es tan complejo como todos los escenarios posibles en su desarrollo, por ello, para entender y comprender al ser humano, es necesario recurrir a un “pluralismo metodológico” y una perspectiva contextual.

De hecho, estamos tratando un tema de mucha profundidad como es el del “método científico” y la Ciencia en sí, tipos de disciplinas que tratan de explicar la realidad, sin embargo, como decía, las ciencias humanas se han de comprender, no explicar. Fijémonos incluso como filósofos de la ciencia como Paul Feyerabend en su ensayo “Contra el método” cuestionaba las bases del método científico mismo.

Bajo esta perspectiva, observamos cómo el desarrollo y difusión de herramientas TIC en disciplinas de las ciencias humanas, están alterando el paradigma comprensivo de las mismas. La identificación de millones de datos superficiales del comportamiento (social) humano, la utilización de algoritmos para el tratamiento de esa ingente cantidad de datos y la estandarización del comportamiento nos está acercando hacia un nuevo positivismo del “yo cuantificado o datificado”. Esta tendencia es una renuncia para comprender al ser humano y volver a convertirlo en un objeto cosificado, en este caso datificado. 

Como ejemplo paradigmático y práctico de cómo estamos ante una carrera no bien fundamentada, pero si bien publicitada, nos referiremos a la eficacia de ciertas campañas de big data en campañas políticas, en concreto a la respuesta de Amelia Showalter ante el resultado de la campaña “Un voto a Obama”: “No tengo ni idea de si el programa de intercambio dirigido nos reportó 100 o 100.000 votos adicionales”. Este nivel de incertidumbre solo se cubre con conclusiones e interpretaciones ex post facto solo basadas en el hecho de la victoria o derrota del candidato en cuestión, si es una victoria es fácil inducir que es gracias a ese programa, si es una derrota también es plausible exculpar al programa… 

Como comentábamos más arriba, esta situación tiene connotaciones no únicamente epistemológicas, sino también, tiene consecuencias sociales, de performatividad social no prevista. La automatización en la toma de decisiones nos da un escenario de modelización algorítmica tendente a una cierta circularidad y a unos marcos de “profecías autocumplidas” y, por tanto, afectarían al comportamiento de las personas, hacia una mecanización del comportamiento. Quizás nos dirijamos hacia una sociedad heterodirigida de la mano de la lógica algorítmica, delegando la toma de decisiones a una inteligencia artificial difusa con sesgos implícitos no suficientemente estudiados.

Sin embargo, ante este panorama que, a nuestro parecer, es inquietante, se abren ventanas de oportunidad para aquellos que creemos en la necesidad de profundidad para entender al ser humano y, por tanto, para actuar de forma efectiva y duradera en el ámbito social y en los marcos de percepción. De hecho, supone una ventaja competitiva fundamental frente a los que se parapetan en el dato o la marea de datos, en el refugio del algoritmo y de la creencia reduccionista en patrones de comportamiento, pero renuncian a una interpretación profunda de la motivación subyacente.

Nosotros apostamos por una visión en la que utilicemos las nuevas tecnologías como herramientas para la interpretación, no como la interpretación en sí, creemos en el Smart Data, más que el Big Data, esto es, en la utilización de los datos dentro de una estrategia general y no el análisis de datos como estrategia. Por ello, recurrimos a análisis contextuales, cualitativos y cuantitativos que nos dan una perspectiva y profundidad compresiva con la que poder actuar eficientemente incluso en escenarios en los que grupos de individuos están profundamente inmersos en marcos autorreferenciales muy excluyentes. Seguimos a autores como Clifford Geertz y su “descripción densa” o análisis del comportamiento a través de los sesgos cognitivos porque lo que importa no es lo que dicen los individuos en dichos marcos autorreferenciales (potenciados en RRSS por algoritmos que fomentan el sesgo de confirmación), lo importante es la motivación subyacente y la percepción que tienen, si lo sabemos interpretar correctamente, podemos actuar efectiva y eficientemente.

Naturalmente, nosotros no pretendemos combatir esos marcos autorreferenciales con otros marcos autorreferenciales, pretendemos  enriquecer y, por tanto, romper el marco. Nuestra visión ética pasa por la pluralidad y el enriquecimiento dialéctico, es el “principio de publicidad” de John Rawls. Queremos favorecer el debate y, con ello, romper las dinámicas polarizadoras y las campañas de desinformación basadas en la mera plausibilidad argumental y en la creación de comunidades cerradas que son utilizadas tanto para objetivos sociopolíticos como para objetivos empresariales.

Ataques sistémicos pensados a medio y largo plazo elaborados desde estrategias y desde frentes extraños a las dinámicas empresariales habituales y ante los que las empresas no saben cómo actuar. Esto ha dejado un flanco empresarial descubierto ante un nuevo riesgo no financiero cuyo objetivo son los órganos de decisión de las empresas e instituciones.


José Rosiñol Lorenzo y Juan Antonio Gómez Bule, socios Fundadores de Opinion Makers.

Cada día asistimos a una omnipresencia de la Inteligencia Artificial y del análisis de datos. Se acaba de aprobar en España la Estrategia Nacional de Inteligencia Artificial y cada día aparecen voces acerca de los rasgos éticos que deben acompañar a esta materia. El presente artículo parte de la que creemos es una necesidad imperiosa, tanto desde el punto de vista epistemológico como desde el impacto que pueden tener las TIC (Tecnologías de la información y la Comunicación) en la sociedad. Me refiero al paulatino cambio en el paradigma de las ciencias humanas y sociales de la mano de la revolución tecnológica. A priori, parecería que nos encontramos ante un avance decisivo para este tipo de disciplinas y su aplicación práctica en la sociedad, sin embargo, creemos que se están invirtiendo las categorías y se hace pasar como fin lo que debería ser un instrumento.

Contenido Exclusivo para suscriptores

Para poder acceder a este y otros contenidos debes ser suscriptor.

¿Ya estás suscrito? Identifícate aquí