Google revient sur sa promesse que ses IA ne serviront pas à développer des armes

by Andvarey

11 comments
  1. il y a déjà des prompts qui tournent avec Anthropiq / CLaude 3 sur “comment fabriquer un airgun slingshot de +100j”

    pour l’instant c’est pas censurer / ban

  2. >Le changement de politique intervient alors que [Donald Trump a annulé dès son premier jour un décret pris par son prédécesseur Joe Biden](http://www.lefigaro.fr/secteur/high-tech/la-doctrine-biden-sur-la-securite-de-l-intelligence-artificielle-balayee-d-un-revers-de-la-main-par-trump-20250122) sur la sécurité en matière d’IA. Les sociétés du secteur ont depuis moins d’obligations: elles n’ont plus besoin par exemple de communiquer les résultats de tests quand leurs programmes présentent *«un risque sérieux en termes de sécurité nationale, de sécurité économique nationale, ou de santé publique»*.

    Eeeeh beh… J’crois que je vais passer en mode full pollution. A choisir, je préfère mourir d’une catastrophe climatique plutôt que par l’arme atomique ou par des robots.

  3. Parce que bien évidemment et c’était inévitable.

  4. Et ben, il leur faut vraiment pas longtemps aux capitalistes pour embrasser le fascisme.

  5. Tous les engagements de sociétés privées doivent toujours être accompagnées du suffixe « … tant qu’on ne nous paiera pas suffisamment pour revenir sur cette promesse ». C’est pourtant simple.

  6. >elles n’ont plus besoin par exemple de communiquer les résultats de tests quand leurs programmes présentent *«un risque sérieux en termes de sécurité nationale, de sécurité économique nationale, ou de santé publique»*.

    Ça me paraît logique, Trump étant tout ça à la fois, il façonne les tests à son image…

Comments are closed.