18 C
Los Angeles
miércoles, julio 17, 2024

Feed suspended! Please contact the owner.

Inoreader Pro plan is required to export...

“Ha llegado lo que Honduras y su democracia anhela”

Tras la llegada y juramentación del diputado,...

¿Alguien sabe lo que la IA hará con nosotros?

DAVID RAUDALES BLOG¿Alguien sabe lo que la IA hará con nosotros?

No quiero una carta astral gratuita, ni ideas artísticas para hacer con mis hijos. No me interesa recibir consejos trillados para mis vacaciones en Córdoba, y definitivamente no quiero chatear con un PDF ¡mucho menos con infinitos PDFs! No se me ocurre una pesadilla peor.

Sin embargo, soy usuaria intensiva de herramientas de inteligencia artificial generativa, incluso doy cursos sobre el tema, y considero que esta tecnología va a transformar nuestro mundo de manera profunda, inquietante e irreversible. ¿Cómo puede ser que los casos de uso que se nos proponen sean tan pobres?

Soy usuaria intensiva de herramientas de inteligencia artificial generativa, incluso doy cursos sobre el tema, y considero que esta tecnología va a transformar nuestro mundo de manera profunda, inquietante e irreversible. ¿Cómo puede ser que los casos de uso que se nos proponen sean tan pobres?

Los ejemplos anteriores aparecen en el “explorador” de ChatGPT, una sección que sugiere cómo usar esta tecnología. Son todas herramientas conocidas como “capas finas”, que se construyen usando como base los grandes modelos de lenguaje. Muchas fueron desarrolladas en un fin de semana por algún entusiasta. Otras son los primeros esfuerzos de grandes empresas por ofrecer algún servicio basado en IA.

Lo que sucede es desconcertante: tenemos una nueva tecnología ultra potente y no sabemos bien para qué usarla. Es un proceso de prueba y error en vivo. Las empresas confían en nosotros, los usuarios, para descubrir qué queremos de la IA.

El problema de esta indefinición es que se extiende a temas más profundos. Como no está claro para qué usaremos la IA generativa, tampoco podemos estimar con precisión sus consecuencias sociales, económicas y políticas.

En 1998, un temprano e influyente artículo de la Corporación Rand comparó las consecuencias de la invención de la imprenta con las de internet. Internet era nueva por entonces, como es ahora la IA. El estudio anticipó, sin embargo, algunos elementos que apenas se insinuaban por entonces, como el spam, los virus informáticos, las estafas online. Su autor, James Dewar, proponía distinguir entre las tecnologías en las que priman las consecuencias esperadas, como el cuchillo o el microondas, de las que traen consigo mayores imprevistos, como por ejemplo el auto. El argumento central de Dewar es que internet estaba entre estas últimas: una tecnología creada para la comunicación militar que terminaría generando cambios inesperados en muchas direcciones. Tuvo razón.

El caso de la IA tiene dos condimentos adicionales. El primero es que, incluso si logramos definir qué tarea realizar con IA, no es tan sencillo juzgar su efectividad. Los servicios actuales nos piden que pongamos un like a las respuestas que nos sirven, de modo que el sistema aprenda de nosotros. Sin embargo, este método es precario. La OIT decidió que su nueva plataforma de conocimiento basada en IA no aprenda de los funcionarios que la usan, porque podrían sin querer “enseñarle” errores.

Como no está claro para qué usaremos la IA generativa, tampoco podemos estimar con precisión sus consecuencias sociales, económicas y políticas

El segundo problema es que no solo ignoramos cuál será el uso más extendido de la IA, sino que desconocemos qué procesos usará la propia tecnología para alcanzar los objetivos que le planteemos.

Como la IA es una caja negra, y ni siquiera sus creadores saben bien cómo funciona, cada pedido a la máquina puede llevarnos por caminos desconocidos, incluso indeseados. Es como en el mito del rey Midas, al que se le concede el deseo de convertir todo lo que toca en oro, pero muere de hambre porque también transforma cada alimento que se lleva a la boca.

Uno de los padres fundadores de la IA, Stuart Russell, da el ejemplo de una computadora a la que se le pide algo tan banal como que prepare un café y, como “objetivo instrumental”, termina decidiendo crear un sistema para que ningún humano pueda desconectarla, dado que eso le impediría hacer el café. En la industria de la IA, este tema se conoce como el problema de la “alineación” entre nuestros objetivos y los de la máquina. Es probable que el futuro no llegue de manera lineal. Nos esperan zigzags inesperados.

No quiero una carta astral gratuita, ni ideas artísticas para hacer con mis hijos. No me interesa recibir consejos trillados para mis vacaciones en Córdoba, y definitivamente no quiero chatear con un PDF ¡mucho menos con infinitos PDFs! No se me ocurre una pesadilla peor.

Sin embargo, soy usuaria intensiva de herramientas de inteligencia artificial generativa, incluso doy cursos sobre el tema, y considero que esta tecnología va a transformar nuestro mundo de manera profunda, inquietante e irreversible. ¿Cómo puede ser que los casos de uso que se nos proponen sean tan pobres?

Soy usuaria intensiva de herramientas de inteligencia artificial generativa, incluso doy cursos sobre el tema, y considero que esta tecnología va a transformar nuestro mundo de manera profunda, inquietante e irreversible. ¿Cómo puede ser que los casos de uso que se nos proponen sean tan pobres?

Los ejemplos anteriores aparecen en el “explorador” de ChatGPT, una sección que sugiere cómo usar esta tecnología. Son todas herramientas conocidas como “capas finas”, que se construyen usando como base los grandes modelos de lenguaje. Muchas fueron desarrolladas en un fin de semana por algún entusiasta. Otras son los primeros esfuerzos de grandes empresas por ofrecer algún servicio basado en IA.

Lo que sucede es desconcertante: tenemos una nueva tecnología ultra potente y no sabemos bien para qué usarla. Es un proceso de prueba y error en vivo. Las empresas confían en nosotros, los usuarios, para descubrir qué queremos de la IA.

El problema de esta indefinición es que se extiende a temas más profundos. Como no está claro para qué usaremos la IA generativa, tampoco podemos estimar con precisión sus consecuencias sociales, económicas y políticas.

En 1998, un temprano e influyente artículo de la Corporación Rand comparó las consecuencias de la invención de la imprenta con las de internet. Internet era nueva por entonces, como es ahora la IA. El estudio anticipó, sin embargo, algunos elementos que apenas se insinuaban por entonces, como el spam, los virus informáticos, las estafas online. Su autor, James Dewar, proponía distinguir entre las tecnologías en las que priman las consecuencias esperadas, como el cuchillo o el microondas, de las que traen consigo mayores imprevistos, como por ejemplo el auto. El argumento central de Dewar es que internet estaba entre estas últimas: una tecnología creada para la comunicación militar que terminaría generando cambios inesperados en muchas direcciones. Tuvo razón.

El caso de la IA tiene dos condimentos adicionales. El primero es que, incluso si logramos definir qué tarea realizar con IA, no es tan sencillo juzgar su efectividad. Los servicios actuales nos piden que pongamos un like a las respuestas que nos sirven, de modo que el sistema aprenda de nosotros. Sin embargo, este método es precario. La OIT decidió que su nueva plataforma de conocimiento basada en IA no aprenda de los funcionarios que la usan, porque podrían sin querer “enseñarle” errores.

Como no está claro para qué usaremos la IA generativa, tampoco podemos estimar con precisión sus consecuencias sociales, económicas y políticas

El segundo problema es que no solo ignoramos cuál será el uso más extendido de la IA, sino que desconocemos qué procesos usará la propia tecnología para alcanzar los objetivos que le planteemos.

Como la IA es una caja negra, y ni siquiera sus creadores saben bien cómo funciona, cada pedido a la máquina puede llevarnos por caminos desconocidos, incluso indeseados. Es como en el mito del rey Midas, al que se le concede el deseo de convertir todo lo que toca en oro, pero muere de hambre porque también transforma cada alimento que se lleva a la boca.

Uno de los padres fundadores de la IA, Stuart Russell, da el ejemplo de una computadora a la que se le pide algo tan banal como que prepare un café y, como “objetivo instrumental”, termina decidiendo crear un sistema para que ningún humano pueda desconectarla, dado que eso le impediría hacer el café. En la industria de la IA, este tema se conoce como el problema de la “alineación” entre nuestros objetivos y los de la máquina. Es probable que el futuro no llegue de manera lineal. Nos esperan zigzags inesperados.

 No quiero una carta astral gratuita, ni ideas artísticas para hacer con mis hijos. No me interesa recibir consejos trillados para mis vacaciones en Córdoba, y definitivamente no quiero chatear con un PDF ¡mucho menos con infinitos PDFs! No se me ocurre una pesadilla peor.Sin embargo, soy usuaria intensiva de herramientas de inteligencia artificial generativa, incluso doy cursos sobre el tema, y considero que esta tecnología va a transformar nuestro mundo de manera profunda, inquietante e irreversible. ¿Cómo puede ser que los casos de uso que se nos proponen sean tan pobres? Soy usuaria intensiva de herramientas de inteligencia artificial generativa, incluso doy cursos sobre el tema, y considero que esta tecnología va a transformar nuestro mundo de manera profunda, inquietante e irreversible. ¿Cómo puede ser que los casos de uso que se nos proponen sean tan pobres?Los ejemplos anteriores aparecen en el “explorador” de ChatGPT, una sección que sugiere cómo usar esta tecnología. Son todas herramientas conocidas como “capas finas”, que se construyen usando como base los grandes modelos de lenguaje. Muchas fueron desarrolladas en un fin de semana por algún entusiasta. Otras son los primeros esfuerzos de grandes empresas por ofrecer algún servicio basado en IA. Lo que sucede es desconcertante: tenemos una nueva tecnología ultra potente y no sabemos bien para qué usarla. Es un proceso de prueba y error en vivo. Las empresas confían en nosotros, los usuarios, para descubrir qué queremos de la IA.El problema de esta indefinición es que se extiende a temas más profundos. Como no está claro para qué usaremos la IA generativa, tampoco podemos estimar con precisión sus consecuencias sociales, económicas y políticas. En 1998, un temprano e influyente artículo de la Corporación Rand comparó las consecuencias de la invención de la imprenta con las de internet. Internet era nueva por entonces, como es ahora la IA. El estudio anticipó, sin embargo, algunos elementos que apenas se insinuaban por entonces, como el spam, los virus informáticos, las estafas online. Su autor, James Dewar, proponía distinguir entre las tecnologías en las que priman las consecuencias esperadas, como el cuchillo o el microondas, de las que traen consigo mayores imprevistos, como por ejemplo el auto. El argumento central de Dewar es que internet estaba entre estas últimas: una tecnología creada para la comunicación militar que terminaría generando cambios inesperados en muchas direcciones. Tuvo razón.El caso de la IA tiene dos condimentos adicionales. El primero es que, incluso si logramos definir qué tarea realizar con IA, no es tan sencillo juzgar su efectividad. Los servicios actuales nos piden que pongamos un like a las respuestas que nos sirven, de modo que el sistema aprenda de nosotros. Sin embargo, este método es precario. La OIT decidió que su nueva plataforma de conocimiento basada en IA no aprenda de los funcionarios que la usan, porque podrían sin querer “enseñarle” errores.Como no está claro para qué usaremos la IA generativa, tampoco podemos estimar con precisión sus consecuencias sociales, económicas y políticasEl segundo problema es que no solo ignoramos cuál será el uso más extendido de la IA, sino que desconocemos qué procesos usará la propia tecnología para alcanzar los objetivos que le planteemos.Como la IA es una caja negra, y ni siquiera sus creadores saben bien cómo funciona, cada pedido a la máquina puede llevarnos por caminos desconocidos, incluso indeseados. Es como en el mito del rey Midas, al que se le concede el deseo de convertir todo lo que toca en oro, pero muere de hambre porque también transforma cada alimento que se lleva a la boca.Uno de los padres fundadores de la IA, Stuart Russell, da el ejemplo de una computadora a la que se le pide algo tan banal como que prepare un café y, como “objetivo instrumental”, termina decidiendo crear un sistema para que ningún humano pueda desconectarla, dado que eso le impediría hacer el café. En la industria de la IA, este tema se conoce como el problema de la “alineación” entre nuestros objetivos y los de la máquina. Es probable que el futuro no llegue de manera lineal. Nos esperan zigzags inesperados.  

Check out our other content

Check out other tags:

Most Popular Articles