;

VIDEOS. Experta en ética y el futuro de la IA: “El mayor riesgo no es la tecnología, somos nosotros”

En Tecnociencia, el podcast, la filósofa Gabriela Arriagada-Bruneau analizó los desafíos éticos de la IA, advirtiendo sobre la responsabilidad humana en su desarrollo y los límites.

Experta en ética y el futuro de la IA: “El mayor riesgo no es la tecnología, somos nosotros”

¿El mayor peligro de la inteligencia artificial? Para la filósofa y experta en ética en IA, Gabriela Arriagada-Bruneau, la respuesta es clara: “Yo creo que mi respuesta va a sorprender, yo creo que no es la inteligencia artificial ni nada relacionado directamente con ella, yo creo que somos nosotros, los seres humanos“.

“Esta revolución de la inteligencia artificial lo que ha hecho es ponernos a nosotros en el centro y que nosotros volvamos a tener una voz consciente y muy profunda ética para decidir cuál va a ser el límite, a dónde vamos a llegar y finalmente qué valores son los que queremos proteger en esa sociedad del futuro”, dijo en un nuevo capítulo de Tecnociencia, el podcast.

La investigadora profundizó en una de las interrogantes más complejas de la actualidad: la posibilidad de que las máquinas desarrollen conciencia y las implicancias que esto tendría para la humanidad.

Frente a la controversia sobre si una IA podría llegar a tener conciencia, Arriagada-Bruneau planteó una interrogante previa: “¿Para qué queremos que tenga conciencia? ¿Cuál es el objetivo final?”. Para la filósofa, cualquier avance en esta dirección debe contar con una justificación científica clara y, sobre todo, con salvaguardas éticas robustas.

Revisa también:

ADN

“Cuando uno tiene que correr riesgos, tiene que tener salvaguardas éticas, tiene que tener un plan de acción y de resguardo para la sociedad”, explicó. La experta enfatizó la necesidad de una “ética del riesgo” que permita establecer alertas tempranas para no caer en un futuro sin retorno.

“(Los humanos) Tenemos que tener mucha conciencia sobre cuáles van a ser las alertas, cuál va a ser esa ética del riesgo que nos va a permitir a nosotros no caer en un futuro del cual quizás no podamos volver”, dijo en conversación con Andrea Obaid.

¿A dónde no queremos ir?

Al ser consultada sobre si la toma de conciencia por parte de las máquinas podría cambiar nuestra esencia humana, la especialista recordó clásicos de la ciencia ficción como Matrix y recalcó que hoy existen decisiones que sí podemos controlar: “Hay caminos que sí podemos bloquear. La pregunta clave es: ¿A dónde no queremos ir?”.

Para Arriagada-Bruneau, el mayor peligro ético no reside en los algoritmos per se. “Yo creo que el mayor riesgo somos nosotros, los seres humanos”, afirmó. Según su análisis, la revolución de la IA ha vuelto a ponernos en el centro para decidir, desde una voz consciente y ética, qué valores queremos proteger en la sociedad del futuro.

“Creo que la inteligencia artificial solo es una tecnología que nos puede dar mayor provecho y avance cuando está utilizada por un humano, cuando está utilizada por un humano que tiene la noción específica de qué es lo que quiere decir, tiene una voz propia, tiene una narrativa propia y tiene la capacidad de decir, ‘Esto me sirve y esto no’. Sin esa libertad humana, todo lo que produzca la inteligencia artificial desde mi perspectiva es nefasto”, remata.

Contenido patrocinado

El siguiente artículo se está cargando

ADN Radio
En vivo

Tu contenido empezará después de la publicidad

Programación

Ciudades

Elige una ciudad

Compartir

URL copiada al portapapeles

Más acciones

Suscríbete

Tu contenido empezará después de la publicidad