"Deepfakes", campañas electorales cognitivas y la fragmentación de la democracia virtual en el siglo XXI

  1. Luis Miguel González de la Garza 1
  1. 1 Universidad Nacional de Educación a Distancia
    info

    Universidad Nacional de Educación a Distancia

    Madrid, España

    ROR https://ror.org/02msb5n36

Revista:
Sistema: revista de ciencias sociales

ISSN: 0210-0223

Año de publicación: 2019

Número: 256

Páginas: 3-30

Tipo: Artículo

Otras publicaciones en: Sistema: revista de ciencias sociales

Resumen

La libertad de expresión genera ideas útiles para la sociedad, ideas que difundidas y recombinadas se pueden transformar en innovación, la fragmentación de las redes y el temor a actuar con libertad mediante la autocensura – in desconocer la responsabilidad de los propios actos– pueden conducir a una era de repliegue de las ideas, encerradas en esferas, en redes aisladas unas de otras con pérdida de libertad general para la actividad intelectual de los ciudadanos y de la sociedad en su conjunto, transformándose las redes en un sistema de control como nunca antes se había pensado disponer. Lo anterior se acentúa en un ecosistema virtual donde nuevos tipos de mentiras audiovisuales generan en los ciudadanos un estupor que conduce a nuevas formas de conformidad social y pasividad por indiferencia ante la verdad. Nuestra experiencia actual es tributaria del posmodernismo que ha pretendido diluir en un relato fragmentado la realidad y en el que la verdad queda reducida a la retórica victoriosa de las ideologías triunfantes en un momento histórico dado, podríamos decir que es verdadero aquello que consigue imponerse como tal, sin tener en cuenta si existe o no base alguna para ello, esto afecta directamente a la propaganda electoral.

Información de financiación

nión pública libre en este medio de telecomunicaciones, donde la libertad encuentra su garantía de que no es condicionada por intercepciones ilegítimas o usos espurios de los datos personales que coaccionen la calidad, variedad, tipo o naturaleza de cualquier forma de expresión a la que el medio pueda conferir operatividad. Es decir, induce en la comunidad política la percepción correcta de que una injerencia irrestricta se ejerce legalmente sobre sus comunicaciones personales y que conduce a limitar el ejercicio de los derechos fundamentales, no solo en lo que respecta al contenido de lo comunicado, sino igualmente en el proceso no condicionado y libre de búsqueda de información, faceta comprendida en el derecho de opinión y expresión del artículo 19 de la Decla-ración Universal de Derechos Humanos, de 10 de diciembre de 1948, actividad en la actualidad vigilada y productora, razonablemente, de temor generador de autocensura. En estas condiciones de vigilancia masiva de todos los ciudadanos (que hagan uso de Internet en España), la autocensura, tal vez la forma de censura más dramática y res-trictiva de la libertad ya que afecta directamente a la dignidad del hombre en su fuero más interno, daña irremediablemente la vertiente subjetiva de la persona, como ero-siona simultáneamente el derecho reactivo de defensa frente al Estado que la libertad de expresión contiene en su seno y, objetivamente considerada, destruye la institución política de la opinión pública libre –en este medio de comunicación–, dado que nutrir un instituto fundamental para la democracia de afluentes debilitados, de expresiones sin vigor y atemorizadas, es generar un plasma insustancial, estéril e inútil que escasos servicios puede rendir a la democracia, debido a esa autocensura que produce el de-nominado chilling effect o efecto de enfriado de la expresión; el retraimiento de los ha-blantes o la autorrestricción en la expresión por el temor al castigo desproporcionado.

Referencias bibliográficas

  • 1 Thomas Jefferson, Autobiografía y otros escritos, Tecnos, Madrid, 1987, págs. 620-621.
  • Nahema Marchal, Lisa-Maria Neudert, Bence Kollanyi, Philip N. Howard, «Polarization, Partisanship and Junk News Consumption on Social Media During the 2018 US Midterm Elections» Comprop, Data Memo 2018.5, noviembre 1, 2018. https://comprop.oii.ox.ac.uk/research/ midterms2018/ (última visualización, 7 de marzo de 2019)
  • Alexander Koyré, La función política de la mentira moderna, Pasos perdidos, Madrid, 2015.
  • Walter Quattrociocchi, «La era de la (desinformación)», Investigación y Ciencia, n.º 91, 2018, págs. 30-31.
  • Luis Miguel González de la Garza, Redes Sociales, Instrumentos de participación democrática. Análisis de tecnologías implicadas y nuevas tendencias, Dykinson, Madrid, 2015.
  • Daniel López Rosetti, Emoción y sentimiento, Ariel, Barcelona, 2018.
  • Amit Elinor, Caitlyn Hoeflin, Nada Hamzah, y Evelina Fedorenko, «An asymmetrical relationship between verbal and visual thinking: converging evidence from behavior and fMRI», Neuroimage. 2017, mayo, n.º 15; 152: págs. 619–627.
  • Sara Pluviano, Sergio Della Sala, «El autoengaño de los antivacunas», en Paradojas de la razón, Mente & Cerebro, Investigación y Ciencia, marzo/abril 2019, n.º 95, págs. 19.
  • Joseph Marks, Eloise Copland, Eleanor Loh, Cass R. Sunstein y Tali Sharot, «Epistemic spillovers: Learning others’ political views reduces the ability to assess and use their expertise in nonpolitical domains», Cognition 188, 2019, págs. 74-84.
  • Desinformación en el ciberespacio, «CCN-CERT BP/13», febrero de 2019, puede verse en: https://www.ccn-cert.cni.es/informes/informes-ccn-cert-buenas-practicas-bp/3549-ccn-cert-bp-13-desinformacion-en-el-ciberespacio.html.
  • Bunk Jason, Jawadul H. Bappy, Tajuddin Manhar Mohammed, Lakshmanan Nataraj, Arjuna Flenner, B.S. Manjunath, Shivkumar Chandrasekaran, Amit K. Roy-Chowdhury, y Lawrence Peterson, Detection and Localization of Image Forgeries using Resampling Features and Deep Learning, 2017 IEEE Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). arXiv:1707.00433v1 [cs.CV] 3 Jul 2017.
  • Yuezun Li y Siwei Lyu, «Exposing DeepFake Videos by Detecting Face Warping Artifacts» eprint arXiv:1811.00656, noviembre de 2018.
  • Harry G Frankfurt, Sobre la charlatanería y Sobre la verdad, Paidós Contextos, Barcelona, 2007, pág. 107.
  • Daniel Jolley, y Karen M. Douglass, «The social consequences of conspiracism: Exposure to conspiracy theories decreases intentions to engage in politics and to reduce one’s carbon footprint», British Journal of Psychology, febrero de 2014.
  • Frank, Bradley, Adrian Bangerter y Martin W. Bauer, «Conspiracy theories as quasi-religious mentality: an integrated account from cognitive science, social representations theory, and frame theory», Frontiers in Psychology, Julio, 2013.
  • https://www.whitehouse.gov/wp-content/uploads/2018/09/National-Cyber-Strategy.pdf (página 14, última visualización 5 de marzo, 2019)
  • Albert, R y Albert-László Barabási, «Topology of evolving networks: Local events and universality», Physical Review Letters, n.º 85, 2000, págs. 5234-5237.
  • Duncan J Watts. y Steven H Strotagtz, «Collective dynamics of small-world networks», Nature, n.º 393, 1998, págs. 440-442.
  • Philip Ball, «Masa crítica, cambio, caos y complejidad», Turner/FCE, México, 2009, págs. 437-471.
  • Duncan J Watts, Seis grados de separación. La ciencia de las redes en la era del acceso, Paidós, Barcelona, 2006, pág. 287.
  • Philip Ball, Masa crítica, cambio, caos y complejidad, Ibíd. pág. 457.
  • Brooke Borel, «Clics, mentiras y cintas de video», Investigación y Ciencia, diciembre 2018, págs. 31-35. 37
  • Aayush Bansal, Shugao Ma, Deva Ramanan y Yaser Sheikh, «Recycle-GAN: Unsupervised Video Retargeting», ECCV, 2018. http://www.cs.cmu.edu/~aayushb/Recycle-GAN/.
  • Adam D I Kramer, Jamie E. Guillory y Jeffrey T. Hancock, «Experimental evidence of massive-scale emotional contagion through social networks», PNAS, Vol. 111, n.º 24, 17 de junio 2014, págs. 8788-9790.
  • Carole Cadwalladr, «Google, democracy and the truth about internet search» Internet, The Observer, 4 de diciembre de 2016. https://www.theguardian.com/technology/2016/dec/04/google-democracy-truth-internet-search-facebook (20 de agosto de 2017).
  • https://www.facebook.com/business/a/online-sales/unpublished-page-posts (20 de agosto de 2017).
  • Robert M Bond, Christopher J. Fariss, Jason J. Jones, AdamD.I.Kramer, Cameron Marlow, Jaime E. Settle& James H. Fowler, «A 61-million-person experiment in social influence and politicalmobilization», Nature, Vol. 489, 13 septiembre 2012, pags. 295-298
  • Ben Nimmo, Measuring Traffic Manipulation on Twitter, Computational Propaganda Research Project, Oxford University, 2019.
  • Emilio Ferrara, Onur Varol, Clayton Davis, Filipo Menczer y Alessandro Flamini, «The Rise of Social Bots», Communications of the ACM, julio 2016, Vol. 59, n.º 7.
  • Emilio Ferrara, Onur Varol, Clayton Davis, Filipo Menczer y Alessandro Flamini, «The Rise of Social Bots», Communications of the ACM, Julio 2016, Vol. 59, n.º 7.
  • Samantha Bradshaw y Philip N. Howard, «Troops, Trolls and Troublemakers: A Global Inventory of Organized Social Media Manipulation», Working paper n.º 2017.12, Computational Propaganda Research Project, Oxford University, UK
  • Andrew Guess, Jonathan Nagler y Joshua Tucker, «Less than you think: Prevalence and predictor of fake news dissemination on Facebook», Sci. Adv. 2019; 5: eaau4586 9 January 2019. Puede consultarse en: https://advances.sciencemag.org/content/advances/5/1/eaau4586.full.pdf%20 (consultado: 8 de mayo de 2019).
  • Real Decreto 1674/1980, de 18 de julio, por el que se aprueba el Reglamento Orgánico del Consejo de Estado.
  • Aharon Barak, Proporcionalidad. Los derechos fundamentales y sus restricciones, Palestra, Lima, 2017, págs. 385-406.
  • Samuel Warren y Louis Brandeis, El derecho a la intimidad, Civitas, Madrid, 1995.
  • Ronald Dworkin, Justicia para erizos, FCE, México, 2014, pág. 263.
  • Resumen del Dictamen del SEPD sobre la manipulación en línea y los datos personales, DOUE C 233/8 de 4.7.2018, pág. 11.
  • Michael T Parker, y Linda M. Isbell, «How I Vote Depends on How I Feel: The Differential Impact of Anger and Fear on Political Information Processing», Psychological Science 21(4) págs. 548-550.
  • Amit Elinor, SoYon Rim,Georg Halbeisen, Uriel Cohen Priva, Elena Stephan, Yaacov Trope, «Distance-dependent memory for pictures and words», Journal of Memory and Language, N 105, 2019, págs. 119-130.
  • Nahema Marchal, Lisa-Maria Neudert, Bence Kollanyi y Philip N. Howard, «Polarization, Partisanship and Junk News Consumption on Social Media During the 2018 US Midterm Elections» Data Memo 2018.5. Oxford, UK: Project on Computational.
  • Maurice Duverguer, La Democracia sin el pueblo, Ariel, Barcelona, 1967, pág. 262.
  • Ted Brader, «Striking a Responsive Chord: How Political Ads Motivate and Persuade Voters by Appealing to Emotions», American Journal of Political Science, Vol. 49, n.º 2. (Apr 2005), págs. 388-405.
  • Nicholas A Valentino, Vincent L. Hutchings, Antoine J. Banks, «Is a Worried Citizen a Good Citizen? Emotions, Political Information Seeking, and Learning via the Internet», Political Psychology, Vol. 29, n.º 2, 2008.
  • Yochai Benkler, Robert Faris, y Hal Roberts, «Network Propaganda, Manipulation, Disinformation, and Radicalization in American Politics», Oxford University Press, 2018.
  • «Elecciones libres y limpias», Orientaciones de la Comisión relativas a la aplicación de la legislación sobre protección de datos de la Unión en el contexto electoral, Contribución de la Comisión Europea a la reunión de dirigentes en Salzburgo los días 19 y 20 de septiembre de 2018, COM (2018) 638 final, págs. 8-9.
  • feudalIsmo 3.0 y sociología críticas de los partidos políticos, Anagrama, Barcelona, 1980, pág. 208.
  • Zygmunt Bauman, y Leonidas Donskis, Maldad liquida, Paidós, Barcelona, 2019, pág. 131.
  • El programa del gobierno Chino puede verse en: https://chinacopyrightandmedia.wordpress. com/2014/06/14/planning-outline-for-the-construction-of-a-social-credit-system-2014-2020/ (consultado 12/05/2019).
  • https://www.independent.co.uk/news/world/asia/china-surveillance-big-data-score-censorship-a7375221.html (consultado 12/05/2019).
  • Luis Miguel González de la Garza, «¿Patrimonializar los datos de carácter personal? Argumentos para un debate», El Notario del Siglo XXI, n.º 38, 5 de julio de 2011. http://www.elnotario. es/index.php/hemeroteca/revista-38/743-patrimonializar-los-datos-de-caracter-personal-argumentospara-un-debate-0-022018592825176746.
  • Alex Pentland, «Una sociedad dirigida por datos», Investigación y Ciencia, n.º 91, 2018, pág. 17.
  • Wolfgang Hoffmann-Riem, «Big Data. Desafíos también para el Derecho», Civitas, Navarra,