Cette révélation intervient juste après la signature d'un accord controversé avec le gouvernement américain. Lors d'une rencontre avec ses employés, Altman a déclaré que son entreprise ne détient pas le pouvoir de façonner l'emploi opérationnel de ses technologies militaires. Ces propos ont été rapportés par CNBC.
Altman a fait référence à des actions militaires, telles que la frappe contre l'Iran, en soulignant qu'il n'avait pas son mot à dire sur ces décisions. Il a précisé qu'après avoir conclu un partenariat fin février, les choix d'application de l'IA dépendraient exclusivement du secrétaire à la Défense, Pete Hegseth.
Un partenariat contesté
Le Pentagone a, par ailleurs, indiqué qu'il examinerait l’expertise d'OpenAI tout en conservant le droit de décision, a raconté Altman. Pour apaiser les préoccupations, il espère mettre en place des mesures de sécurité adéquates, même si cela peut ne pas plaire aux décideurs militaires.
Ce partenariat, qui a suscité de vives critiques au sein d'OpenAI même, a été établi après qu'Anthropic, un autre acteur du secteur de l'IA, a refusé de partager ses technologies pour des raisons éthiques. Nous devrions nous souvenir que cette startup avait pour but de garantir que ses systèmes ne soient pas intégrés dans des opérations militaires à caractère autonome ou de surveillance de masse.
ÙD'autre part, des voix critiques, comme celles de certains employés, ont exprimé leur inquiétude face à cette direction prise par l'entreprise. Altman lui-même a reconnu que la communication autour de cet accord avait pu donner l'impression d'une précipitation peu réfléchie. Par la suite, il a promis des ajustements pour éviter que l'IA ne soit utilisée pour surveiller la population.
En dépit de ces réserves, d'autres entreprises comme xAI, fondée par Elon Musk, semblent prêtes à collaborer davantage avec le Pentagone, ce qui soulève des interrogations sur le consensus éthique au sein du secteur de l'intelligence artificielle.







