Los términos inteligencia artificial (IA) y machine learning (ML) se están usando en forma corriente entre los internautas y usuarios de redes sociales.

Hemos escuchado y leído información sobre los algoritmos de Instagram, los robots de Google o el internet de las cosas y su interconectividad mediante Internet, siendo importante conocer para que sirven, qué son o cómo nos afectan. Algunos, tratan de entender esta newtech con el fin de generar una comunicación interactiva con ellos y producir unos resultados deseados, verbigracia, los analistas de SEO y marketing digital.

Lo cierto es que la aparición y desarrollo de estas nuevas tecnologías (NT) abarcan la atención de start up, nuevas áreas de desarrollo en las empresas tecnológicas existentes e inclusive ya se dictan master o especializaciones en la investigación e implementación de la inteligencia artificial en universidades reconocidas.

Un ejemplo común del uso de dispositivos basados en IA son los asistentes personales, siendo los más comunes: Alexa de Amazon, Siri de Apple y Google Home asistant.

La tecnología apunta a un amplio desarrollo de estas NT que son una expresión significativa del avance tecnológico experimentado por la sociedad moderna, después del advenimiento de internet.

Ahora bien, ¿cómo se comporta el derecho como elemento de control social para prevenir o solucionar los conflictos de índole civil, administrativo o penal que puedan generar la utilización de esta tecnología?

¿Están siendo tomados en consideración los nuevos desarrollos tecnológicos para incluir en las legislaciones vigentes la regulación de los conflictos sociales que están apareciendo?

Este post versa específicamente sobre la inteligencia artificial y el machine learning, y se basa en las conclusiones de un workshop que se realizó en la Universidad College de Londres y que fueron expuestos por Caldwell, Andrews, Tanay y Grifin en un artículo  denominado “AI & Future Crime”.

En dicho workshop se analizaron las posibles transgresiones o daños que se pueden cometer con el uso de la inteligencia artificial en los próximos quince años.

“El taller implicó la realización de un ejercicio de evaluación de amenazas por parte de un grupo diverso de partes interesadas en la ciberseguridad, del mundo académico, las instituciones públicas y del sector privado. La reunión abarcó múltiples puntos de vista y campos de experiencia, y funcionó en parte como un ejercicio de intercambio de conocimientos, pero el objetivo principal era identificar las vulnerabilidades imaginando posibles delitos y luego evaluando la gravedad de las amenazas planteadas por cada uno. La atención se centró en un periodo de corto a mediano plazo (hasta 15 años en el futuro), aunque también se discutieron las perspectivas más allá de ese horizonte.”

 

Suscríbete para recibir en tu correo nuestras publicaciones

6 + 13 =

La inteligencia artificial puede ser utilizada como un medio para generar riesgos o amenazas a los seres humanos en sus bienes jurídicos más preciados. Con la IA se puede predecir el comportamiento de personas o instituciones para determinar sus vulnerabilidades y explotarlas.

Los delitos pueden ser los tradicionales extorsiones, robos, lesiones, ataques a la intimidad, espionaje, entre otros, utilizando para cometerlos nuevos métodos que aminoran el riesgo a los autores, inductores o partícipes de que puedan ser identificados y sancionados.

Las principales conductas de alto y mediano riesgo identificadas en las conclusiones del workshop, son las siguientes:

Modificación de audio y video

En la sociedad moderna el uso de los videos para transmitir información y contenido se ha incrementado exponencialmente.

Las comunicaciones escritas que eran objeto de falsificación en su contenido (falsedad ideológica) o en su firma (falsificación), están siendo abandonadas como blanco de la delincuencia.

El internet y las RRSS han apuntalado a la utilización de contenido visual, mediante fotografías y videos. Los desarrollos de nuevas tecnologías y aplicaciones han conducido a la modificación del audio en los videos y mensajes digitales con fines delictivos.

El término “deepfake” ha calado en la sociedad para nominar esa tendencia delincuencial.  El workshop prevé la suplantación del audio de niños o ancianos en videos y llamadas para pedir recursos, o simplemente para tergiversar un hecho comunicacional.

Estas conductas son de alta peligrosidad y se pueden detectar con facilidad. No obstante,  se espera la aparición de aplicaciones más evolucionadas que van a dificultar la posibilidad de controlarlas.  Solución plausible, la educación como forma de prevención.

Utilización de vehículos como armas

Se prevé un desarrollo significativo de los coches autónomos, atendidos por inteligencia artificial. Las pruebas en la vía pública de los carros de google son constantes y la competencia por llegar a la meta de la evolución y la comercialización, es cada día mas férrea.

Los vehículos autónomos se estima, que puedan ser usados como instrumentos de terrorismo por parte de grupos anárquicos. Para conseguir el fin no se requerirá el reclutamiento de conductores como sucede en la actualidad.

Los expertos concluyeron que esta amenaza es altamente realizable, moderadamente rentable y fácilmente derrotable.

Los pishing personalizados

Se conocen como un ataque de ingeniería social que tiene como objetivo recopilar información personal e instalar en los sistemas de la víctima de un malware mediante un mensaje digital, que simula ser procedente de un ente de confianza del receptor.

Los pishing evolucionados con base a la IA se adaptan a los gustos, preferencias, carácteres e información personal que puedan ser colectadas en las redes sociales de las víctimas. Los mensajes digitales cada día parecerán más genuinos y su veracidad será más difícil de identificar.

Interrupción de servicios controlados por Inteligencia Artificial

En la medida que aumenta la IA en las empresas e instituciones de servicios públicos, así como en los hogares y empresas los ataques a los sistemas que lo usan se amplificarán.

Los expertos prevén ataques criminales y terroristas de interrupción selectivo de servicios. Es probable que los sistemas que supervisan los servicios públicos sean objeto de ataques al igual que los que supervisan las transacciones financieras.

Chantaje por la difusión de información personal crítica

La IA puede ser utilizadas para recabar información personal de redes sociales, correos electrónicos, logs de visitas de páginas de internet, documentos personales ubicados en discos duros, computing cloud y teléfonos celulares.

El chantaje para evitar la difusión de información confidencial, crítica y que atenten contra el honor de las personas tendrá una ayuda con el desarrollo de la IA.  El chantaje obtuvo una calificación alta en el workshop y la derrotabilidad fue considerada difícil.

Fake news

 El daño cometido por el contenido falso que circula libremente por la red fue considerado alto, debido al considerable potencial de influir en eventos políticos, así como los efectos sociales de la difusión de la falsa información.

La posibilidad de derrotar o controlar esta amenaza fue considerada como difícil por un problema técnico y porque los límites entre las noticias reales y falsas es ínfimo.

En el workshop fueron consideradas otras amenazas de menor gravedad y probabilidad, tales como:

Los robots militares que puedan ser comercializados en el mercado negro de armas bélicas, por los perros de la guerra, y pueden ser usados por grupos de delincuencia organizada y entes terroristas.

El fraude con la venta de servicios basados en inteligencia artificial, que al final resultan ser falsos o no cumplen con las especificaciones de usabilidad ofertadas.

La manipulación de datos incorporados en los sistemas de machine learning con el fin que se condicione el resultado del sistema de inteligencia artificial. Se puede citar como ejemplo, lograr que un sistema de rayos X no pueda detectar un arma que se quiere ingresar a un avión o persuadir a un asesor de inversiones de aconsejar la adquisición de posiciones en una corporación, con base a estadísticas amañadas en los sistemas de predicción de comportamiento bursátil.

Los ataques a los sistemas de información con base a la inteligencia artificial se prevén sean más específicos y masivos, con fundamento al enfoque de aprendizaje de debilidades identificadas previamente.

La utilización de drones basados en inteligencia artificial, compete que con el uso de la IA, el usuario del dron puede controlarlo desde Internet, no requiere estar dentro del alcance del radio de un dron sin IA. Los drones podrían ser una amenaza seria, si actúan en masa de enjambre autoorganizados. Recordemos el capítulo de la serie “black mirror hated in the nation”, donde se plantea esta posibilidad.

El hackeo de los sistemas de inteligencia artificial que ayudan en la detección fácil. Han sido detectados ataques de “transformación” que permite que una sola identificación personal, por ejemplo, un pasaporte, sea utilizada por varias personas. En este supuesto se engaña a los sistemas para aprobar el acceso o el reconocimiento o identificación fácil positivo para suplantar identidad.

La manipulación de los mercados financieros o de valores a través de patrones de operaciones dirigidos, probablemente de alta frecuencia, para dañar a los competidores, las monedas o el sistema económico en su conjunto (en lugar de beneficiarse directamente de la negociación, aunque eso también podría ser un efecto secundario ) fue discutido.

Ahora, bien para concluir este post y la relevancia jurídico que el contenido del mismo podría tener, podemos afirmar que la ciencia  del derecho debe estar preparada para generar una respuesta que satisfaga las necesidades de protección de una sociedad cada vez más intercomunicada.

El advenimiento de nuevos métodos para cometer los delitos comunes y económicos que existen en la actualidad, con la utilización de las nuevas tecnologías entre las cuales se debe incluir la inteligencia artificial, ameritará una adecuación tipológica que permita incluir estos aspectos tecnológicos como instrumentos cualificados de comisión.

El desvalor del hecho es mayor en este tipo de delitos y en consecuencia debe ser estimada una mayor consecuencia jurídica cuando se utilicen estos instrumentos tecnológicos para cometerlos.

El artículo original está en inglés y se deja el link a continuación.

https://rdcu.be/b6jAk