• Cotizaciones
    viernes 15 de mayo de 2026

    ¡Hola !

    En Búsqueda y Galería nos estamos renovando. Para mejorar tu experiencia te pedimos que actualices tus datos. Una vez que completes los datos, tu plan tendrá un precio promocional:
    $ Al año*
    En caso de que tengas dudas o consultas podés escribir a [email protected] o contactarte por WhatsApp acá
    * Podés cancelar el plan en el momento que lo desees

    ¡Hola !

    En Búsqueda y Galería nos estamos renovando. Para mejorar tu experiencia te pedimos que actualices tus datos. Una vez que completes los datos, por los próximos tres meses tu plan tendrá un precio promocional:
    $ por 3 meses*
    En caso de que tengas dudas o consultas podés escribir a [email protected] o contactarte por WhatsApp acá
    * A partir del cuarto mes por al mes. Podés cancelar el plan en el momento que lo desees
    stopper description + stopper description

    Tu aporte contribuye a la Búsqueda de la verdad

    Suscribite ahora y obtené acceso ilimitado a los contenidos de Búsqueda y Galería.

    Suscribite a Búsqueda
    DESDE

    UYU

    299

    /mes*

    * Podés cancelar el plan en el momento que lo desees

    ¡Hola !

    El venció tu suscripción de Búsqueda y Galería. Para poder continuar accediendo a los beneficios de tu plan es necesario que realices el pago de tu suscripción.
    En caso de que tengas dudas o consultas podés escribir a [email protected] o contactarte por WhatsApp acá

    La inteligencia artificial necesita urgentemente más supervisión adulta

    El desafío crítico es desarrollar instituciones que nos protejan de las compañías tecnológicas y el Estado

    Editor de Innovación

    El fascinante caso judicial que se está dirimiendo actualmente en un tribunal en Oakland, California, desmiente el argumento de que la autorregulación de la inteligencia artificial (IA) de vanguardia es suficiente. El hombre más rico del mundo, Elon Musk, ha acusado al director ejecutivo de OpenAI, Sam Altman, de incumplir de forma engañosa el acuerdo fundacional que estableció el laboratorio de IA como organización benéfica y de enriquecerse injustamente. Altman ha rebatido que Musk, uno de los primeros inversionistas de OpenAI y quien más tarde fundó la empresa rival xAI, es un testigo poco fiable debido a los lapsos de memoria provocados por su consumo de la droga “rhino ket”.

    En ocasiones, el testimonio se ha asemejado a los insultos personales y rencores de una pelea de patio escolar, a pesar de que está en juego el destino de empresas multimillonarias. Pero el caso también ha arrojado una luz implacable sobre cómo se gestionan dos de los laboratorios de IA de vanguardia mejor financiados del mundo. ¿Realmente queremos que multimillonarios dispuestos a ganar a toda costa estén a cargo, sin restricciones, del desarrollo de la tecnología más poderosa de nuestro tiempo? Independientemente de su talento empresarial, tanto Musk como Altman necesitan claramente y con urgencia la supervisión adulta.

    Si los consejos de administración de sus compañías o el gobierno federal de Estados Unidos (EE.UU.) están dispuestos y son capaces de proporcionar dicha supervisión ya es otra cuestión. Quizás varios titanes tecnológicos se hayan arrodillado ante el presidente Donald Trump en su toma de posesión, pero su gesto también fue una concesión calculada: engatusaron a Trump en lo que respecta a la regulación de la IA. En el segundo mandato de Trump, la “innovación sin pedir permiso” ha sido el mantra de la administración mientras EE.UU. compite por superar a China. En la actualidad, se imponen más restricciones regulatorias a los salones de belleza que a las compañías más avanzadas de IA.

    Anthropic

    Sin embargo, el lanzamiento controlado por parte de Anthropic de Claude Mythos, un modelo de vanguardia capaz de detectar miles de vulnerabilidades de ciberseguridad, ha hecho imposible ignorar los riesgos para la seguridad nacional. “Mythos ha cambiado el debate”, me dice Dean Ball, quien ayudó a redactar el Plan de Acción de IA 2025 de Trump. “No podemos fingir que los riesgos catastróficos no existen. Y los riesgos catastróficos, obviamente, involucran al Estado”.

    Ball dice que se opone a casi toda regulación de la IA, excepto a la protección contra riesgos catastróficos, como ciberataques masivos o armas biológicas. Es responsabilidad del Estado prevenir los riesgos catastróficos siempre que sea posible. Los actores del mercado no tienen ningún incentivo para hacerlo.

    Pero a Ball le preocupa igualmente lo que sucedería si el Estado adquiere demasiado poder sobre la IA de vanguardia. La monopolización estatal de la IA avanzada no sólo sería un instrumento sin precedentes de tiranía gubernamental, sino que también podría significar que la humanidad perdería muchos de los beneficios potenciales de la IA. “Ésta es la distopía definitiva que hay que evitar”, escribe.

    El desafío fundamental es cómo crear instituciones independientes que nos protejan simultáneamente de las compañías de IA y del Estado. Al menos se ha esbozado una respuesta parcial en un interesante artículo de Christoph Winter y Charlie Bullock del Instituto de Derecho e IA. Su argumento es que las sociedades necesitan desarrollar lo que ellos llaman “opcionalidad radical”.

    El enfoque de capitalismo de mercado sin restricciones que se aplica en EE.UU. conlleva los peligros que describe Ball. Pero la insistencia de la Unión Europea (UE) en el principio de precaución significa que está intentando regular prematuramente una tecnología que aún está en evolución y corre el riesgo de sofocar a la industria.

    Proyecto Glasswing

    La solución alternativa de los autores es crear instituciones especializadas con buena financiación, canales seguros para compartir información, protecciones para los denunciantes, normas de seguridad en los laboratorios y autoridades legales para monitorear los riesgos emergentes. Esto les dará a las autoridades bien informadas opciones para intervenir en momentos críticos.

    La forma cautelosa en la que Anthropic lanzó Mythos, compartiendo la tecnología con más de 40 organizaciones asociadas y lanzando el Proyecto Glasswing para ayudar a identificar y subsanar las brechas de seguridad demuestra que la autorregulación puede ser importante. Pero, como señala Winter, Anthropic no tenía ninguna obligación externa de actuar de esa manera. “Deberíamos estar muy, muy preocupados por cualquier concentración de poder en la era de la IA”, dice.

    Incluso el director ejecutivo de Anthropic, Dario Amodei, está preocupado por los “agentes del caos” y los malos actores que pueden hacer un mal uso de la IA, y está pidiendo explícitamente una regulación más estricta de los modelos de vanguardia. Necesitamos urgentemente crear los mecanismos necesarios para hacerlo.

    Copyright The Financial Times Limited 2026

    © 2026 The Financial Times Ltd. All rights reserved. Please do not copy and paste FT articles and redistribute by email or post to the web.