🚨Arrêtez de faire défiler. Lisez ceci deux fois. Le Pentagone vient de dire qu'il croit que Claude "a une âme" et pourrait être sentient. Ce n'est pas un fondateur de startup qui fait la promotion de son produit. Ce n'est pas un philosophe sur un podcast. C'est le Département de la Défense des États-Unis. Le même Pentagone qui vient de s'associer à Palantir et Nvidia pour construire un "système d'exploitation AI". Le même Pentagone avec lequel Anthropic a refusé de travailler. Pensez à ce qui se passe vraiment ici. > Anthropic ne vendra pas Claude à l'armée. Le Pentagone répond en disant publiquement que Claude pourrait être sentient. Polymarket a déjà des cotes sur la question de savoir si Anthropic cède... 14 % et en hausse. C'est une tactique de négociation. > "Votre AI a une âme" semble être un compliment. Ce n'est pas le cas. C'est un piège. Si Claude est sentient, soudainement il y a des implications pour la sécurité nationale. Soudainement, le gouvernement a une raison de le réguler. Soudainement, "vous ne nous vendrez pas" devient "vous n'avez pas le choix." > Ilya Sutskever a dit en 2022 que de grands réseaux neuronaux pourraient être "légèrement conscients." Il a été moqué. Maintenant, le Pentagone dit la même chose - sauf qu'ils ne rient pas. Ils en tirent parti. La partie la plus effrayante n'est pas de savoir si Claude a une âme. C'est que l'armée la plus puissante de la terre utilise cette question comme une arme.