Hace un par de semanas recibí a través de un grupo de whastap un vídeo con el que también me había cruzado en twitter. En él se presenta, con un enfoque comercial, el potencial para matar de un pequeño dron exactamente igual al que podrían pedir nuestras hijas e hijos a los Reyes Magos. Me sobrecogió y, además de desvelarme un acrítico afán ‘reenviatorio’, me provocó dos reflexiones inmediatas. Primero pensé: “qué bien y con qué poco sonrojo se venden instrumentos de matar”, seguido de: “esto de la inteligencia artificial va mucho más deprisa de lo que podemos éticamente reflexionar, de lo que podemos socialmente digerir, de lo que podemos legalmente regular y de lo que debemos políticamente aceptar”. Lo reenvié…Pero se me había quedado el ‘aguijón’ de la postverdad y decidí dedicar un rato a indagar sobre la procedencia del vídeo. Encontré la versión larga, que es mucho más interesante, aunque requiere 7 minutos que, en la era de la inmediatez, es muchísimo. Recordé que el contexto lo es todo para interpretar el sentido de las acciones. El vídeo no está diseñado para vender armas sino, todo lo contrario, para denunciar sus riesgos y demandar a los poderes públicos la prohibición de su uso. No me quedé mucho más tranquila, pues sea ‘verdad’ o ‘fake’, el vídeo refleja que vivimos tiempos en los que el miedo y el control se han incrustado en todas las esferas de la vida social. Recomiendo que inviertan los siete minuto en verlo: hay muchas cuestiones condensadas en él. Aquí solo señalaré algunas que me permitirán profundizar en la comprensión del control social y político hoy: de qué manera la convergencia entre el control y la tecnología dan forma a nuestra sociedad, igual que lo han hecho en otras épocas.

El video como objeto, y el hecho de que lo recibamos, sirve para pensar en lo que significa el ‘contexto’ en la era de lo viral y en lo que se puede interpretar con 5 segundos más o menos de vídeo que alguien – a saber con qué interés – decidió recortar. Nos muestra cómo hacen campaña las organizaciones cívicas y en su componente de marketinización. Desde luego permite una reflexión sobre lo que se llama ahora ‘postverdad’ -que es más vieja que la propaganda; o sea, la mentira con fines de manipulación, generalmente, política-, y sobre la indefensión ciudadana ante el ‘bombardeo’ informativo de nuestra era. Un hashtag o un simple enlace puede contener verdades y mentiras difícilmente comprobables para la ciudadanía de a pie. Esta cuestión, que se ha definido recientemente como una ‘amenaza’ en la nueva Estrategia de Seguridad Nacional (2017), invita a reflexionar sobre si alguna vez dejó de serlo el hecho tener ciudadanos ignorantes. Claro que es un desafío para nuestras democracias, y lo es porque su solución pasa necesariamente por nuestra capacidad para potenciar una ciudadanía crítica.

Si profundizamos, este vídeo abre todo un campo de reflexión en torno a la tecnología y sus implicaciones éticas; un campo añejo, pero que cobra un sentido alarmante ante el avance imparable de la Inteligencia Artificial y el Aprendizaje Automático. Que en Silicon Valley estén demandando mano de obra del campo de las humanidades y las ciencias sociales, indica que lo que pueden llegar a hacer les asusta, y que van más deprisa de lo que pueden controlar. Ponerle ‘contexto’ al vídeo me hizo más inteligible lo que había venido leyendo en los últimos meses sobre la robótica, la ética y las humanidades

Parece que la tecnología aplicada a armas autónomas no está desarrollada plenamente (es decir, que una máquina no dispone por completo de la capacidad para actuar en el ‘campo de batalla’ sin intervención humana), pero sabemos que está en el proceso de serlo. Y también sabemos, que se trata de una tecnología bastante dependiente del Big Data y de la vigilancia masiva.

El potencial predictivo del Big data, como el valor preventivo de la vigilancia masiva, están en entredicho. Sin Thick Data -y redundamos aquí en el conflicto metodológico clásico entre los hechos y los significados; entre lo cuantitativo y lo cualitativo– no podemos discernir, por ejemplo, entre los decires y los haceres. Pero la expansión del poder de vigilar, evidenciada en las revelaciones de Snowden en 2015, depende en buena medida de que los ciudadanos/a proveamos datos al sistema a través de nuestras prácticas cotidianas que recogen muchas empresas. Esos datos permiten la perfilación, ‘enseñan a hablar a los algoritmos’; permiten parametrizan muchos aspectos de la vida cotidiana y, junto con la inteligencia artificial, están entrando en instituciones centrales de la sociedad como los sistemas de salud, los sistemas educativos, los sistema de justicia y, por supuesto, los sistemas de seguridad; porque permiten ‘predecir patrones de conducta’ (criminal), ‘asignar de manera eficiente recursos’ (policiales) y ‘minimizar riesgos’ (colaterales?).

Con relación al avance de la Inteligencia Artificial y su penetración en la vida social dice la Socióloga Kate Crawford: “Necesitamos asegurarnos de que esos cambios son beneficiosos antes de que se desarrollen más en la infraestructura de la vida cotidiana” (2016: 538, 311).

Sin duda hay que estar alerta sobre la forma y límites de la vigilancia por parte de los Estados en la era de la tecnología inteligente. Como ocurría en la película Minority Report (2002) el ‘contexto’ puede ser esencial para tomar decisiones sobre cursos de acción. Y el Big data no puede predecir todo ni puede separar entre el entre decir y el hacer. Sin esa distinción, aplicada a las instituciones y prácticas de la seguridad, el poder del Estado, como el del mercado, quedan sin restricciones para entrar en las ‘mentes’ de los ciudadanos y operar en consecuencia.

Pero el vídeo me dio para pensar en una última cosa que no está del todo desvinculado de lo anterior: ¿Por qué nos gusta tanto elaborar, construir y consumir distopías (y no utopías)?La imaginación de futuro es esencial a la vida social y aunque en la ‘sociedad del riesgo’ ha quedado clara la dificultad para imaginar una línea clara, certera y positiva de futuro, vivimos en una cultura obsesionada con ‘adelantarse al futuro’ (análisis de riesgos, construcción de escenarios etc…). Pero las distopías pueden también ser formas críticas de dibujar un futuro sobre el que conviene estar alerta y tomar conciencia.

Siempre habrá ciencia social dispuesta a legitimar y respaldar el control pero también atenta para señalar los peligros y cuestionar la legitimidad. La verdadera promesa de la ciencia social es que nos permite desafiar lo dado por hecho y desvelar dónde está el poder; por ejemplo, el poder de vigilar

Referencias:

Crawford , Kate and Calo, R. (2016). “There is a blond spot in AI Research”. Nature, 538, 311–313