Buenos días, buenas tardes, buenas noches. Donde quiera que estén, sean bienvenidos a un capítulo más del Máster online de humanidades digitales. Hoy vamos a explorar las implicaciones éticas y legales del mundo digital. Entenderemos por ética una forma sistemática de analizar cómo tomamos decisiones en nuestra vida cotidiana, en función de nuestros valores. ¿Le decimos la verdad a nuestro amigo sobre si le queda bien esa corbata a topos? ¿O mejor le soltamos una mentira piadosa? Cada día tomamos decenas de decisiones éticas. Y el derecho es, simplemente, la aplicación de esas intuiciones éticas compartidas a un marco legal concreto. Los problemas éticos aparecen cuando dos valores diferentes colisionan y tenemos que decidir cuál es más importante. Históricamente, el primer gran dilema ético de las tecnologías digitales surge al colisionar nuestro derecho a la libertad de expresión con el respeto a las víctimas de la violencia. Ernst Zündel es un, digamos, historiador canadiense. Zündel defiende la llamada Tesis del Revisionismo, según la cual el Holocausto Nazi nunca tuvo lugar, y sería una mentira que fabricarían los Aliados, tras ganar la guerra, para desprestigiar el régimen de Hitler. Como you se imaginarán, es una tesis que no resiste un mínimo análisis científico. Y al caso es que, además de ser mentira, negar el Holocausto es delito en diversos países, como Canadá, aunque no lo es en Estados Unidos, donde la Primera Enmienda de la Constitución protege fuertemente la libertad de expresión. Al descubrir la World Wide Web, a Zündel se le ocurrió una manera de saltarse la ley canadiense. ¿Qué pasaría si él subiera sus textos revisionistas a un servidor estadounidense? No le podrían acusar de nada, pues el material está en un país en el que negar el Holocausto no es delito. Este recurso de diluir fronteras es utilizado hoy en día por cibercriminales en todo el mundo. A medida que entramos en la web colectiva, el 2.0, y más recientemente el big data, otro derecho central nuestro, el de la privacidad, está cada día más en peligro. Empresas como Google, Facebook, Twitter, Amazon, saben cada vez más cosas sobre nosotros, especialmente si utilizamos sus servicios con nuestro smartphone, pues disponen de información concreta y detallada sobre dónde hemos estado en todo momento. Esta brecha en nuestra privacidad presenta graves problemas éticos. Por un lado, ¿qué pasa si esos datos caen en manos de alguien que no debería tenerlos? ¿Se imaginan un banco o una compañía de seguros negándonos un crédito o subiéndonos la prima a partir de los datos que hemos dejado en las redes sociales? Pues cosas así están pasando. La respuesta estándar es observar que estas empresas que ofrecen servicios gratis a cambio de nuestra privacidad, no venden datos nuestros, sino ofrecen perfiles que nos clasifican, de manera que nuestra privacidad no está en peligro. Y es aquí donde surge otro problema ético central. Cada vez se automatizan más decisiones políticas y sociales, tanto a nivel público como privado. Si vamos a ser admitidos en una universidad, si merecemos una ayuda económica del gobierno, si el banco nos va a dar finalmente ese crédito para comprar una casa, son decisiones que los algoritmos toman de manera automática. Esos algoritmos procesan nuestros datos y, finalmente, deciden incluirnos en un grupo concreto. La mayoría de esas agrupaciones están pensadas para ofrecernos publicidad y son, básicamente, inofensivas. Se nos incluye en un grupo de aficionados al yoga y nos aparece en nuestra red social un anuncio de esterillas para practicar yoga, no pasa nada. Pero estar incluido en un grupo como persona que no devuelve las deudas, o persona que defrauda la seguridad social, eso es claramente un problema grave, sobre todo si los datos no se ajustan a la realidad. Y esto, insisto, no es simplemente un escenario imaginario. Recientemente, se ha destapado cómo la empresa Cambridge Analytica se apoderó ilegalmente, o legalmente, es complicado, de los datos de millones de personas en Facebook para crear anuncios especialmente diseñados para ellos, y así animarlos a votar a favor de Donald Trump en Estados Unidos, o a salir de la Unión Europea en el Reino Unido. Lo más terrorífico de estos algoritmos es que, al estar automatizados, no hay una forma clara de establecer por qué se ha decidido que nos gusta el yoga, que estamos en contra de la inmigración, que somos morosos o defraudadores, etcétera. El algoritmo simplemente ha computado unas probabilidades y ha decidido meternos en un saco concreto. Salir de estos sacos es un problema complejo. Y por otro lado, como esos algoritmos se basan en cómo se están tomando decisiones actualmente, si en nuestra sociedad actualmente you hay mecanismos sesgados que producen desigualdad social, el algoritmo reproducirá esos sesgos y los acabará grabando, porque los continuará aplicando y cada vez tendrá más continuidad. Lo más importante es darnos cuenta de que son problemas que nos conciernen a todas y a todos. La responsabilidad ética no recae únicamente en el jefe de una empresa. Decidamos extender la responsabilidad social a todas las personas que trabajan en tecnologías digitales, que sean conscientes de que decisiones cotidianas a la hora de diseñar una interficie, programar un algoritmo o inventar un sensor, hay implicaciones éticas para todos nosotros. Y aquí en las humanidades digitales tienen un papel central. Necesitamos de una reflexión ética y humanística, de cuáles son las implicaciones positivas y negativas de las tecnologías digitales, y ofrecer guías a los desarrolladores de esas tecnologías sobre qué cosas potenciar y cuáles evitar, para vivir así en una sociedad más ética y más justa. Buenos días, buenas tardes, buenas noches. Ha sido un placer estar con ustedes y hasta la próxima sesión. Gracias. [AUDIO_EN_BLANCO]