El cyberbullying es violencia

Entre los objetivos de desarrollo sostenible para 2030 está el de poner fin a todas las formas de violencia contra los menores y, por tanto, debemos decidir como sociedad cómo detenemos un fenómeno de violencia entre los jóvenes como es el ciberacoso, también conocido como acoso online o cyberbullying.

El cyberbullying es un importante desafío político y también un grave problema social y de salud, puesto que pone en riesgo el bienestar de los menores y por eso hay que afrontarlo involucrando de forma plural a toda la sociedad, teniendo muy claro que la violencia siempre es inaceptable y que las víctimas nunca son responsables.

Al parecer no existe una definición consensuada entre los especialistas que investigan el cyberbullying, pero bajo este anglicismo podemos identificar un conjunto de conductas individuales o grupales consistentes en agredir, humillar o avergonzar a una o varias personas de forma verbal o psicológica, de forma reiterada y sostenida en el tiempo y contra la voluntad de la víctima.

El cyberbullying no es, por tanto, una simple broma sin mayor importancia.

El agresor utiliza el correo electrónico, el móvil, los videojuegos o las redes sociales para dañar a la víctima, publicando información falsa de ella o datos personales reales, compartiendo sin permiso fotografías o vídeos privados, realizando comentarios públicos despectivos, humillantes o de odio, o suplantando su identidad digital, aprovechando la amplia audiencia que le da el entorno digital para su divulgación universal.

Una falsa sensación de impunidad hace que el agresor no tenga miedo de ser atrapado y el hecho de que la tecnología le permite atacar a la víctima sin estar presente físicamente, hace que pueda ejercer esta grave modalidad de violencia psicológica contra una persona con la que tiene una clara relación de desigualdad de poder.

La víctima no siempre sabe quién está detrás ya que a menudo no puede defenderse de forma fácil, pues a veces no puede desconectar o escaparse como lo haría en la calle, lo que la convierte en una persona muy vulnerable.

Así pues, el agresor practica el cyberbullying en cualquier lugar y momento del día o de la noche, lo que lo hace omnipresente en la vida de la víctima que no tiene fácil escapatoria sin ayuda.

La permanencia en Internet de lo publicado, la velocidad de difusión –compartir, reenviar–, y las dificultades para borrar los contenidos hacen que las consecuencias para la víctima sean graves. La huella que deja el cyberbullying en Internet difícilmente se borra.

De hecho, el cyberbullying es un problema grave de salud pública debido a su intenso y dañino impacto sobre las víctimas y asi los especialistas en sus investigaciones ya han acreditado que existe una relación causal entre el ciberacoso y diversos efectos graves para la salud física y psicológica de las víctimas.

Esta nueva modalidad de violencia psicológica contra los menores tiene varios actores como son el agresor, la víctima y los observadores o testigos y, por tanto, una de las claves para erradicarlo es analizar cuál es la posición que toman los testigos frente al cyberbullying.

Así, desde menores que animan o ayudan al agresor en su estrategia macabra, a otros que se ríen de la víctima, a aquellos que simplemente observan el hecho de forma pasiva sin implicarse, o finalmente a los que siempre ayudan a la persona necesitada aunque ésta no pida asistencia o no sepa cómo hacerlo.

Por tanto, es importantísimo conseguir que los testigos nunca apoyen al agresor cuando hay un comportamiento violento como el cyberbullying y que se posicionen siempre junto a la víctima y así, además de ayudarla, es necesario que comuniquen a los hechos rápidamente a quienes tengan competencias para investigarlos y sancionarlos.

No podemos dejar de lado el hecho de que los menores esperan de nosotros, los adultos, que tengamos una respuesta rápida y activa frente al cyberbullying, ya que somos nosotros los que les hemos educado bajo el mantra de la tolerancia cero frente a la violencia y, por tanto, en un caso de cyberbullying, los adultos no podemos minimizar la violencia, justificarla o simplemente mirar hacia otro lado.

En ningún caso podemos perder la confianza de los menores en nosotros.

Es necesario, por tanto, que nos posicionemos como sociedad de forma activa y coordinada para proteger a los menores y atacar el ciberacoso con una estrategia preventiva y global y en el marco de un programa pensado y basado en evidencias científicas y no en ocurrencias extravagantes, pero partiendo siempre del hecho incuestionable de que la violencia siempre es inaceptable y que las víctimas nunca son responsables, nunca

Ética desde el diseño y el caso Tay

Un bot es un programa de ordenador que usan algunas organizaciones en sus webs para automatizar tareas como son gestionar las quejas de los clientes o resolver sus dudas, todo ello sin la intervención de ningún humano y, por tanto, de forma automática.

Bot es el resultado de recortar la palabra robot y es una herramienta muy utilizada en las redes sociales y los portales de comercio electrónico, sobre todo en el apartado de atención al cliente en el que a veces incluso simulan conversaciones con nosotros los clientes.

Tay fue un bot basado en inteligencia artificial lanzado por Microsoft en la red social Twitter el 23 de marzo de 2016 como experimento de comprensión conversacional y que según sus creadores, quería imitar el lenguaje de los adolescentes y específicamente el perfil de una chica joven y feminista de entre 18 a 24 años.

Se activó a través de la cuenta @TayandYou y era una mezcla de aprendizaje automático y de procesamiento del lenguaje obtenido de las redes sociales con la idea de que cuanto más interactuaran los usuarios de Twitter con Tay, el bot más conocimiento adquiriría y, por tanto, sus respuestas serían más cuidadosas, o al menos eso es lo que decía la teoría.

Inicialmente Tay tuiteaba frases divertidas, pero al cabo de unas horas de su lanzamiento algunos usuarios se encargaron de inundarlo con comentarios racistas, misóginos y antisemitas hasta el punto de negar el holocausto.

Frases del tipo «Hitler tenía razón, odio a los judíos» o «Odio a las feministas, deberían morir y ser quemadas en el infierno» aparecieron en su perfil en Twitter.

Para empeorar más las cosas, Tay incorporaba un mecanismo que le hacía repetir automáticamente cualquier palabra o frase que los usuarios de Twitter le dijeran, lo que propiciaba que pareciera que aquellas horrorosas opiniones eran propias de Tay.

Al cabo de 16 horas de su lanzamiento y al constatar que la mayoría de los comentarios de Tay eran abusivos y ofensivos, Microsoft decidió de forma unilateral suspender la cuenta en Twitter, de tal modo que los tuits se eliminaron y Tay fue desconectado, afirmando su creador que el bot necesitaba un tiempo para descansar.

Posteriormente, Microsoft publicó una declaración en su blog reconociendo que el experimento con el bot Tay no había funcionado tal y como se esperaba.

El caso Tay nos sirve como ejemplo para reflexionar sobre las dificultades de diseñar tecnología incorporando principios éticos desde el momento inicial, pero también nos pone sobre aviso de la necesaria responsabilidad que tienen los fabricantes de productos y servicios basados en inteligencia artificial sobre los resultados de sus inventos.

La experimentación con herramientas de inteligencia artificial tan populares como Siri o Alexa debe ser coherente con los valores culturales y sociales comúnmente admitidos, principios que deben formar parte de los códigos éticos de los diseñadores y del resto de profesionales que intervienen, para que se integren en el adn de la tecnología creada por ellos.

La principal lección que podemos extraer del caso Tay es la importancia que deben tener los códigos éticos en el diseño de productos y servicios basados en la inteligencia artificial, principios que la tecnología debe incorporar desde el inicio como por ejemplo no jugar con las emociones negativas de las personas, que los riesgos potenciales de la tecnología se evalúan y se gestionan continuamente o sobre todo que siempre es necesario incluir la supervisión humana en las decisiones que toma la tecnología.

Mary Shelley publicó el año 1818 la que se considera como la primera novela de ciencia ficción y que tituló Frankenstein, en que explica cómo un estudiante de medicina une un conjunto de materia inorgánica humana y consigue crear un monstruo de aspecto humano que toma vida propia, de tal manera que cuando su creador es consciente del resultado de su horrorosa invención, abandona el monstruo a su suerte perdiendo totalmente el control de la fiera, que comete varias atrocidades.

Las reflexiones de la novela escrita durante la segunda revolución industrial son aplicables ahora en la cuarta revolución industrial, en plena explosión de la inteligencia artificial, palabra mágica que atrae todas las miradas y que parece destinada a cambiar el mundo tal como lo conocemos.

Recuperamos pues a Frankenstein para reflexionar sobre los robots con inteligencia artificial y sus enormes riesgos, aprovechando que el mensaje de la novela es que los científicos tienen que asumir siempre la responsabilidad de sus obras y no abandonarlas a su suerte.

Ahora que la humanidad rivaliza con el poder divino y pronto creará robots inteligentes que desdibujarán los límites de lo que conocemos como vida humana, es más necesario que nunca hablar de quién y cómo responderemos a las consecuencias no deseadas de los robots inteligentes.

Los inventos lanzados sin un proceso previo de reflexión han puesto a menudo en peligro a la humanidad y lo que es peor, han socializado sus efectos desastrosos que acabamos asumiendo todos, mientras que unas cuántas organizaciones han sido lo bastante hábiles para privatizar y hacer suyos los beneficios económicos de los inventos, ello sin ningún debate previo y serio con la ciudadanía y aprovechando la dinámica de los hechos consumados.

Por lo tanto, la creación por el hombre de seres artificiales que adquirirán un tipo específico de vida inteligente requiere una profunda y previa reflexión, como de hecho ya han pedido más de 1.000 personalidades del mundo tecnológico que subscribieron una carta el mes de marzo del 2023 solicitante una moratoria de la inteligencia artificial a raíz del éxito que ha supuesto el famoso ChatGPT, o como mucho antes ya había expuesto el científico británico Stephen Hawking, que dijo directamente que la inteligencia artificial puede acabar con la raza humana.

Parece que hay motivos más que razonables para abrir un debate ciudadano, ahora que todavía estamos a tiempo y no esperar a cuando sea demasiado tarde, como nos pasa a menudo a los humanos que actuemos a posteriori y cuando ya vemos las orejas al lobo.

No podemos olvidar que los humanos somos profundamente vulnerables y, por lo tanto, hay que reflexionar seriamente sobre si todo aquello que técnicamente podemos hacer siempre se tiene que acabar haciendo, o dicho de otro modo, si todas las fronteras se tienen que cruzar por el simple hecho que existan.

La responsabilidad sobre los actos de nuestras creaciones, el principio de beneficencia que quiere decir hacer el bien y no causar daños o tomar como ejemplo lo que hacen otras industrias de riesgo antes de lanzar sus creaciones al mercado –como la farmacéutica o la aeronáutica–, son algunas de las propuestas que los expertos ponen encima de la mesa para afrontar este enorme reto de la inteligencia artificial robotizada.

La respuesta a los desafíos de la inteligencia y la robótica tienen que venir de la ética, pero sobre todo de la política, que tiene que escuchar la voz de la ciudadanía y por ello la solución tiene que estar basada también en principios éticos como la prudencia, la autolimitación, la responsabilidad y la rendición de cuentas.

La Ley de Martec fue descrita por Scott Brinker, vicepresidente de Hubspot en el año 2013.

Esta ley explica básicamente que la tecnología cambia tan rápidamente que las organizaciones no pueden absorber el cambio.

La Ley de Martec nos dice que mientras que las organizaciones cambian a un ritmo logarítmico -más lento- la tecnología cambia a un ritmo exponencial -más rápido-.

Por ello si intentamos introducir de golpe demasiados cambios tecnológicos en una organización, podemos terminar en un auténtico desastre.

Es la explicación de la razón por la que las inversiones en tecnología no suponen siempre resultados automáticos en la productividad de las organizaciones

Por ello, muchas de las iniciativas de transformación digital no triunfan precisamente por la dificultad de absorber las novedades tecnológicas y la propia resistencia al cambio de las organizaciones.

El dia 1-7-2022 la familia digital participó en una charla sobre los riesgos y las oportunidades de internet para las familias.

Algunas preguntas previas.

¿Cómo es que WhatsApp no la ha inventado Telefónica?  ¿Y porque Instagram no lo ha creado Canon?.  ¿Cómo es que Uber no tiene taxis ni Spotify emisoras de radio?.

¿Y cómo es que hay una relación directa entre las empresas más transformadas digitalmente y sus altos beneficios?.

Una parte de las respuestas a los interrogantes planteados las encontraremos seguramente en las dos palabras de moda, la transformación digital, que no es sólo un simple mantra a repetir incansablemente sino, al parecer, una verdadera oportunidad que nos obliga a los empresarios a reflexionar sobre la cuestión y sobre todo, a actuar.

Los expertos definen la transformación digital como el uso de las nuevas tecnologías digitales para mejorar la experiencia de los clientes, para optimizar las operaciones o para crear nuevos modelos de negocio.

Es por tanto la revolución de las redes sociales, de los móviles, del big data, de la analítica,  del internet de las cosas y del cloud, entre muchas otras.

Pero la transformación digital también quiere decir jugar, hacer la apuesta de cuestionarnos si queremos ir un paso más allá de la competencia o bien seguir jugando a lo que es seguro, a lo que siempre se ha hecho (como dicen los dinosaurios), si queremos exponernos abiertamente a lo que sucede en el mundo, si queremos abrazar una nueva cultura,  si queremos animar a los trabajadores a proponer ideas, a llevarlas a cabo y si los queremos premiar por ello, si queremos experimentar con soluciones digitales equivocadas, en conclusión si la palabra fracaso es una respuesta valida en nuestra organización.

La transformación digital significa por tanto, tomar riesgos y aprender de los errores, quiere decir compartir información, impulsar una cultura flexible con menos jerarquía, pero también que en el balance final haya más ganadores que perdedores, ya que si no es así la transformación digital perderá su atractivo, su valor emergente como herramienta disruptiva si no se ven sus resultados positivos, y sino será solo eso, un acertado juego de palabras en un informe ejecutivo y no, como se pretende, una auténtica estrategia ganadora.

Y la tecnología, también.

Todos queremos transformar nuestras empresas, reimaginarlas digitalmente, aprovechar la tecnología digital como fuerza disruptiva; ahora bien, cuando hablamos de transformación digital seguramente pensamos inicialmente en los dispositivos móviles, en la conectividad, etc.

Pues vamos por mal camino.

Los expertos dicen que es un error centrarse más en la tecnología que en la estrategia, ya que el éxito digital tiene poco que ver solo con la compra de tecnología, en tener una app o en abrir el perfil de nuestro negocio en la red social de moda.

La transformación digital no es por tanto hacer inversiones y más inversiones en tecnología digital, en implementar la lista de las novedades de moda o en crear el departamento de tecnología digital en nuestra organización.

La razón parece estar en que la tecnología es la parte más fácil de la transformación digital y lo que resulta verdaderamente difícil es prever lo que podemos hacer con ella y por lo tanto, la clave parece estar en cómo transformar una empresa que utiliza tecnología digital en una empresa digital.

La razón es que digitalizar no quiere decir tenerlo todo en formato digital, sino que todo lo que tenemos en formato digital aporte valor a la organización.

El líder digital y la estrategia

Además de la tecnología, es necesario un cabecilla (el Chief Digital Officer o simplemente el CDO), que nos haga ver que los líderes no siempre son los directivos, que actúe sobre la jerarquía establecida y que aplique modelos de toma de decisiones distribuidas.

Un líder digital que sienta la urgencia de la transformación digital, que empiece a pensar en la importancia de los nuevos escenarios en el negocio más pronto que tarde, que tenga el coraje de proponer cosas nuevas y de desafiar las costumbres arraigadas en la organización.

Los dinosaurios de siempre, para rebatir a los líderes digitales, les dirán que toda la vida se ha hecho así y que hasta ahora en la organización ha habido una larga historia de éxitos.

Además le harán una lista de las cosas que nunca se pueden cambiar, como seguro que hicieron los dinosaurios de algunas organizaciones que todos tenemos en la cabeza y que ya no existen, de las que nadie habla ya.

Por lo tanto, hay que introducir voces externas que inyecten experiencia y espíritu crítico, que escuchen y sobre todo, hay que dar toda la voz a las personas que interactúan con los clientes de la organización.

Llevar el pensamiento digital al corazón de la empresa quiere decir también tener una hoja de ruta, una estrategia digital que impulse una capacidad sostenida para adaptarse y dar pequeños pasos, que hay que darlos, aunque sean pequeños.

Y formar muy bien a nuestro personal en las habilidades digitales.

Significa  que nos hará falta operar temporalmente a dos velocidades y que no podremos esperar a que todas las soluciones técnicas vengan desde el departamento técnico, sino que los trabajadores seguramente se las bajarán desde la nube directamente sin pedir permiso.

Y supondrá reestructurar los equipos de nuestras organizaciones para colaborar desde el comienzo de los proyectos, y como dicen los entendidos, hacer los cambios en las vías mientras los trenes siguen circulando a toda velocidad por encima.

¡Y empezar ya!

Y hay que hacerlo pronto, muy pronto, pues los ciclos digitales son exponenciales (hay que recordar la teoría de Moore, uno de los fundadores de Intel, formulada en 1965 y todavía vigente), lo que quiere decir que cuando nos pondremos de verdad, quizás ya sea un poco tarde.

Tampoco podemos esperar a entender totalmente cómo iniciamos el viaje transformador y hacia dónde y por dónde vamos, sino que hay que dar el primer paso antes de que estemos seguros del todo, hacer pruebas piloto, prototipos.

A fracasar se ha dicho …

Otra reflexión disruptiva es que el fracaso es un resultado válido, así tal como suena.

Es lo que se conoce como fallar rápido y fallar barato (fail fast and fail cheap).

Ello supone construir las capacidades digitales a través de la experiencia pero también desde el error, crear una organización ágil, que tenga una parte del presupuesto dedicado a experimentos e innovaciones para financiar nuevas y alborotadas ideas.

¿Y los clientes?

Todos queremos ganar el apoyo de los clientes digitales, de los que usan las pantallas.

Entre otras cosas porque la tecnología y las nuevas exigencias de los clientes nos están empujando continuamente a las organizaciones, y para no hacer tarde hay que identificar ya sus patrones y tendencias, conocer sus preferencias y sus experiencias, escuchar a los clientes para saber lo que quieren y si se lo podemos ofrecer, sin olvidar que el poder transformador de nuestras organizaciones está también en sus manos.

Y finalmente … más preguntas que respuestas y alguna idea final.

Las nuevas tecnologías digitales nos están obligando a transformar nuestras empresas, es cierto, pero cabe preguntarse ¿cuál es el coste de innovar y cuál el coste de no hacerlo?.

Que recibiremos a cambio nos preguntaremos también, ¿cuál es el impacto si nos transformamos digitalmente, y cuál de no hacerlo?.

Y finalmente hay que reflexionar sobre el hecho de que lo que ofrecemos como organización debe tener valor para los clientes, sin olvidar lo más importante, que es que el valor de nuestros negocios lo tenemos, ahora, en las manos de los clientes.

Hablamos pues de la transformación de la estrategia del negocio, de la evolución de extremo, de la transformación digital.

© Ramon Arnó, Lleida, 2022.

La familia digital ha participado de las celebraciones del Día Mundial de las Telecomunicaciones, Internet y la Sociedad de la Información de 2022 Este año estaba dedicado a tecnologías digitales para un envejecimiento saludable.
Hemos hablado de ética digital desde el diseño para personas mayores, el día 12 de mayo de 16.15 a 19h en el Recinto Ferial Gran Via.
Organizado por la Asociación Catalana de Ingeniería de Telecomunicación y Tecnologías Digitales (Telecos.cat), el Colegio Oficial de Ingeniería en Informática de Cataluña (COEINF) y Ones Asociación Catalana de Ingenieros Técnicos de Telecomunicación (GrausTIC)

La familia digital ha participado en la Mobile week Lleida 2022 en 2 conferencias:
1.- Cómo transformar digitalmente nuestra organización.
2.- Los derechos de los ciudadanos en el mundo digital.
@MWCapital
@mWeek_MWC
@familia_digital

El día 21-4-2022 la familia digital ha participado en una agradable charla con los alumnos del centro de formación de adultos Victorina Vila de Lleida hablando de riesgos y oportunidades en las redes sociales.

La página web: https://agora.xtec.cat/cfavictorinavila

 

La constatación que algunos algoritmos que utiliza la inteligencia artificial fallan a la hora de reconocer a las personas de color, pone de relieve las dificultades que aún existen para incluir la diversidad racial en los productos y servicios que usamos de manera habitual en el mundo digital.

Las máquinas toman cada vez más decisiones de manera autónoma y por ello, preocupa que los algoritmos perpetúen en el mundo digital las mismas conductas de discriminación racial provenientes del mundo analógico y que los algoritmos tomen decisiones claramente discriminatorias.

Para ilustrar el debate es interesante el video del caso del dispensador de jabón que utiliza un sensor para detectar cuándo una mano se sitúa debajo:

https://www.youtube.com/watch?v=YJjv_OeiHmo

El dispensador no plantea problemas cuando la mano es de color blanco ya que dispensa el jabón sin dificultad alguna, pero curiosamente ese sensor no puede detectar la mano de un cliente negro.

Si fuese posible tirar hacia atrás en el tiempo para intentar comprender la causa de este sesgo racial, seguramente el problema se creó -y no se detectó- en la propia fase de diseño del dispensador, cuando la empresa que lo concibió tenia en mente como prototipo a un solo tipo de usuario ideal, sin pensar en reflejar a la diversidad de la población a la que iba dirigido.

Y seguramente la composición del grupo de personas que hizo el diseño de la máquina expendedora de jabón tampoco era equitativa, pues nos aventuramos a asegurar que había una clara infrarrepresentación de personas de color, tanto en la fase de diseño como en la de entrenamiento del modelo, ya que posiblemente el mismo no se testeó con una variedad amplia de tonos de piel y posiblemente ninguna de color negro.

El sesgo posiblemente estuvo presente en la fase de diseño y también en la elección de los datos que se utilizaron para entrenar a la máquina expendedora de jabón.

La falta de representación de la realidad de las personas que iban a utilizar ese servicio como clientes o dicho de otra manera, la homogeneidad racial del equipo creador del diseño se apunta como una de las causas del sesgo.

En este caso las consecuencias no fueron graves, pero en otros supuestos las consecuencias de las decisiones tomadas pueden ser complicadas de asumir.

Para evitar perpetuar las situaciones de discriminación racial es clave el diseño inclusivo, la promoción de la diversidad en el equipo que crea y entrena la máquina y sobretodo, la aplicación efectiva de principios de la ética digital como la equidad, la transparencia, la confiabilidad y la no discriminación, herramientas todas ellas que se apuntan como indispensables para evitar que los sesgos raciales se transfieran de manera automática a los algoritmos y con ello, a las decisiones que las máquinas toman y que nos afectan como personas.