• Cotizaciones
    martes 03 de marzo de 2026

    ¡Hola !

    En Búsqueda y Galería nos estamos renovando. Para mejorar tu experiencia te pedimos que actualices tus datos. Una vez que completes los datos, tu plan tendrá un precio promocional:
    $ Al año*
    En caso de que tengas dudas o consultas podés escribir a [email protected] o contactarte por WhatsApp acá
    * Podés cancelar el plan en el momento que lo desees

    ¡Hola !

    En Búsqueda y Galería nos estamos renovando. Para mejorar tu experiencia te pedimos que actualices tus datos. Una vez que completes los datos, por los próximos tres meses tu plan tendrá un precio promocional:
    $ por 3 meses*
    En caso de que tengas dudas o consultas podés escribir a [email protected] o contactarte por WhatsApp acá
    * A partir del cuarto mes por al mes. Podés cancelar el plan en el momento que lo desees
    stopper description + stopper description

    Tu aporte contribuye a la Búsqueda de la verdad

    Suscribite ahora y obtené acceso ilimitado a los contenidos de Búsqueda y Galería.

    Suscribite a Búsqueda
    DESDE

    UYU

    299

    /mes*

    * Podés cancelar el plan en el momento que lo desees

    ¡Hola !

    El venció tu suscripción de Búsqueda y Galería. Para poder continuar accediendo a los beneficios de tu plan es necesario que realices el pago de tu suscripción.
    En caso de que tengas dudas o consultas podés escribir a [email protected] o contactarte por WhatsApp acá

    Decir “no”

    Las naciones, y hablo también de la nuestra, deberían definir el concepto de uso responsable de la inteligencia artificial, trazar líneas rojas y estar dispuestas a respetar los marcos legales

    Columnista de Búsqueda

    Cuando Trump quiere hundir a alguien empieza diciendo que está loco o senil o que es estúpido, que es un cerdo, un malvado o comunista. Incluso, algunas personas han acumulado todos los adjetivos mencionados en las diatribas del mandatario. Solo digamos que el presidente del país más poderoso del mundo (y vaya si en estos días ha demostrado que lo es) no se anda con chiquitas a la hora de proferir insultos.

    “Locos de extrema izquierda”, vociferó nuestro inefable Donald con la mesura que lo caracteriza, esta vez refiriéndose a los creadores de Anthropic, el modelo de inteligencia artificial (IA) generativa más usado por el ejército americano… hasta ahora. Sucedió el 27 de febrero y así la compañía, valorada en US$ 380.000 millones, cambió su estatus de contratada por el Pentágono al de peligrosa amenaza. Pete Hegseth, secretario de Defensa, pronunció la sentencia, y Trump abundó en los improperios, calificó a sus fundadores de comunistas woke, los amenazó con consecuencias civiles y penales. Pero ¿qué había sucedido con el modelo de IA más usado por el ejército americano, con la empresa que procesaba análisis de inteligencia en redes ultraclasificadas? ¿Cómo cayó en desgracia, de un día para el otro, la compañía que contribuyó en las operaciones de captura de Nicolás Maduro?

    Todo tiene que ver con decir “no”.

    Si Pedro negó a Jesús tres veces, a los hermanos Daniela y Dario Amodei, titulares de Anthropic, les alcanzó con hacerlo en dos oportunidades. Se plantaron firmes: no a la vigilancia masiva de ciudadanos estadounidenses, y no a las armas letales sin supervisión humana en el gatillo. Dos negativas que, en la lógica del adalid del mundo libre, equivalen a una declaración de guerra contra los Estados Unidos de Norteamérica.

    Desde 2021 los Amodei venían planteándose cómo debería ser una IA para no terminar destruyendo el mundo que conocemos. De esa manera, muy discutida y muy pensada, nació la inteligencia artificial constitucional. Se trata de un método que, alineado con un conjunto de valores que se le da, que esta aprende y acrecienta, facilita el comportamiento del modelo de acuerdo a pautas dadas. Dicho en buen romance: normas éticas que obligan a la tecnología a comportarse según las reglas impuestas. Así surge Claude, el modelo que recoge tres mandatos ordenados jerárquicamente. Primero, no socavar los mecanismos de supervisión humana; segundo, actuar con honestidad y evitar el daño; tercero, ser genuinamente útil. Dicho entre nosotros, huele a Isaac Asimov. Bienvenido sea.

    A raíz de estos mandatos morales autoimpuestos, la alianza entre la empresa de los Amodei y el gobierno norteamericano comenzó a volverse incómoda para las dos partes. Así y todo, en julio de 2025 el Pentágono le adjudicó un contrato de US$ 200 millones. El problema fue que Anthropic había consignado en sus términos de servicio las exclusiones que mencionamos: no a la vigilancia masiva de ciudadanos estadounidenses, y no a las armas letales sin supervisión humana. Tales términos fueron inaceptables para el Pentágono, que quiso renegociarlos con condiciones que, su vez, no fueron aceptables para la compañía. La historia, que sucede en pocas horas, es increíblemente compleja y técnica, y no darían ni el espacio ni mis conocimientos para contarla en este texto. Digamos entonces lo esencial: Anthropic trazó una línea roja y se negó a cruzarla.

    Lo que sigue es parte del folklore al que nos tiene acostumbrados la Casa Blanca: ese mismo viernes 27 de febrero, después de rescindir el contrato, Trump la calificó “compañía de inteligencia artificial de izquierda radical”.

    Quedó planteado un hito moral, un sistema de normas que podrá reflejarse (o no) tanto en el desarrollo futuro de la IA como en la configuración de las guerras, que podrá impedir (o no) la vigilancia indiscriminada de ciudadanos o la fabricación de robots que maten de manera autónoma. La decisión, por lo pronto, no ha caído en saco roto: más de 100 empleados de Google han firmado una carta en la que piden a sus jefes que sigan el ejemplo de Anthropic.

    Porque, no nos engañemos, las decisiones tecnológicas no son neutras, nunca son puramente técnicas. Cada línea de código, cada modelo, tiene consecuencias, se trata de poder y de política, incide en el futuro que estamos construyendo. Aunque la velocidad y el crecimiento dominen la dinámica de los procesos, este ejemplo de “Anthropic vs. Pentágono” obliga a hacer una pausa y pensar si estamos desarrollando la tecnología que queremos dejar como herencia. Una frase de Perogrullo que a veces olvidamos: las decisiones de hoy definirán la vida de mañana.

    Sería irresponsable no poner un límite y dejar expedito el camino a los abusos sin freno, al desconocimiento de los derechos humanos, a provocar un desastre mayor, quizá con armas nucleares. Para detener esta carrera las naciones, y hablo también de la nuestra, deberían definir el concepto de uso responsable de la IA, trazar líneas rojas y estar dispuestas a respetar los marcos legales que se implementen. Los límites autoimpuestos por Anthropic son un ejemplo, un zócalo sobre el que empezar a trabajar. Es sintomático que haya sido una empresa privada la que nos recuerde que hay un derecho a la privacidad que no puede ser cercenado, que la IA no puede decidir cuándo apretar el gatillo. Decir “no” no debería ser un asunto lejano entre el Pentágono y una empresa privada, no puede ser una decisión de burócratas plasmada en un contrato. Porque, más allá de los insultos del presidente de turno a quienes le plantan cara, es y debe ser una toma de posición sobre el futuro inmediato de la humanidad.

    // Leer el objeto desde localStorage