11 février 2020 | International, Aérospatial, Naval, Terrestre, C4ISR, Sécurité

U.S. Air Force Upgrading C-17 and C-130H Avionics As Supplier Base for Legacy Systems Falls

By: Aaron Mehta

WASHINGTON — The Pentagon is requesting $4.5 billion in funds for the European Deterrence Initiative, the second straight year that the department has cut its request for the program.

The EDI is a special part of the department's Overseas Contingency Operations funding, focused on reassuring allies in Europe and deterring Russian aggression on the continent.

The Pentagon requested $4.8 billion for EDI in FY18, a request which grew to $6.5 billion in FY19. The FY20 request, however, dropped it down to $5.9 billion. Congress plussed up the funding to $6.5 billion, meaning the department's request for this year would be a $1.5 billion cut.

Funding will go towards rotational force deployment and the implementation of previously funded multiyear agreements. It will also support additional exercises in Europe and the prepositioning of U.S. equipment on the continent.

Two European officials contacted by Defense News downplayed concerns, with one saying that a drop in funding is normal given the number of infrastructure projects that are being completed.

Included in the EDI funding is $250 million for the Ukraine Security Assistance Initiative, which can be used to replace any “weapons or defensive articles” provided to Ukraine by the U.S. government. Such funding became a flashpoint in 2019, eventually leading to the impeachment of President Donald Trump, who was acquitted in the Senate last week.

In the last National Defense Authorization Act, Congress requested that the Pentagon submit a five-year plan for EDI in FY21.

Overall, the OCO funding request is $69 billion, slightly down from the $71.3 billion enacted by Congress for FY20. Other major OCO funds include $16.2 billion for operations in Afghanistan, Iraq and Syria; $7.6 billion for the replenishment of major munitions that have been expended around the globe; and $4 billion to train and support Afghanistan security forces.

OCO also funds $600 million in security cooperation funding, which has now been rebranded as the National Defense Strategy-Implementation fund, or NDS-I.

https://www.defensenews.com/smr/federal-budget/2020/02/10/european-defense-initiative-funding-drops-in-defense-budget-request

Sur le même sujet

  • Microsoft Defender Flaw Exploited to Deliver ACR, Lumma, and Meduza Stealers

    24 juillet 2024 | International, C4ISR, Sécurité

    Microsoft Defender Flaw Exploited to Deliver ACR, Lumma, and Meduza Stealers

    Microsoft patches Defender flaw exploited to deliver info stealers ACR, Lumma, Meduza in global campaign

  • A la recherche de l'IA hybride

    3 avril 2020 | International, Aérospatial

    A la recherche de l'IA hybride

    Vice-président recherche, technologie, innovation du groupe Thales, David Sadek intervenait jeudi 24 octobre à Toulouse au Forum Innovation IA, un événement organisé par Sciences et Avenir pour le groupe Challenges. Explicabilité, validité, intégrité... " Pour une IA de confiance " : c'était l'intitulé de l'intervention de David Sadek, le vice-président recherche, technologie, innovation du groupe Thales. "Nous aimerions tous pouvoir toujours faire confiance à tous nos outils technologiques. Mais en réalité tout dépend du contexte. Dans le cas des outils reposant sur l'IA, si Netflix me recommande un film que je trouve détestable, ce n'est pas bien grave, on s'en remettra. Mais dans le cas des systèmes critiques tels que l'on en conçoit régulièrement chez Thales pour des applications défense, espace et aéronautique, la question de la confiance est primordiale". David Sadek énonce trois impératifs, qui sont autant d'axes stratégiques de la feuille de route IA chez Thales, pour aller vers cette " IA de confiance ". Pour qu'une application de l'IA soi digne de confiance, il faut d'abord qu'elle soit capable d'expliquer. Si elle se contente de proposer ou décider sans être capable de dire pourquoi et comment elle est arrivée à cette proposition ou décision, la défiance s'installera. Elle doit donc être capable de répondre à la question : " Pourquoi ? ". "Si par exemple un copilote IA recommande au pilote humain de virer à 45°, et que ce dernier demande " pourquoi ", le copilote doit pouvoir répondre par exemple : " parce qu'il y a un problème météo (ou une menace ...) droit devant ". Il ne s'agit pas de simplement tracer la décision, de pouvoir indiquer à ses concepteurs quels neurones, quelles couches de neurones, ont fait pencher la balance dans un sens ou un autre, mais bien d'expliquer dans une langue compréhensible immédiatement par le pilote". Ce qui indique qu'à l'aspect intelligence artificielle s'ajoute celui de " l'interaction homme-machine ". IA connexionniste et IA symbolique Cela implique, en restant sur cet exemple, une capacité de compréhension et de génération du langage naturel. Mieux, le pilote appréciera de pouvoir dialoguer dans un langage mixte, reposant sur l'oral et le geste (pour désigner un point sur une carte, etc.). Deuxième impératif selon David Sadek : il faut pouvoir démontrer la validité d'une application de l'IA. C'est-à-dire sa conformité aux spécifications. "Le système développé doit faire tout ce l'on attend de lui et rien que ce que l'on attend de lui. Ce qui suppose que l'on sache spécifier très proprement". On connait l'exemple d'un jeu de bataille navale, un " serious game " destiné à former des officiers de la marine, qui gagnait à tous les coups, parce qu'il sacrifiait systématiquement chaque vaisseau touché, pour ne pas ralentir la flotte. Aucune règle ne prévoyait, n'interdisait ce cas de figure, passablement inacceptable. Troisième impératif pour une " IA de confiance ", selon David Sadek, la responsabilité des systèmes reposant sur l'IA. C'est-à-dire leur conformité aux cadres légaux, réglementaires et moraux. On connait le tendon d'Achille des réseaux de neurones : ce sont des boîtes noires, on voit ce qui entre et ce qui sort, mais on ne sait pas (trop) ce qu'il se passe à l'intérieur. C'est pourquoi David Sadek insiste sur le fait qu'il faut s'intéresser aussi à " l'autre IA ", l'IA symbolique, celle qui repose sur des règles et des raisonnements et qui s'oppose à l'IA connexionniste des réseaux de neurones. Cette IA symbolique, qui fait moins les gros titres, qui n'a pas connu les progrès fulgurants de l'IA des réseaux de neurones, est plus à même de répondre à ces trois exigences : expliquer, valider, responsabilité. C'est pourquoi la réponse à cette triple exigence passe sans doute, entre autres, par " l'IA hybride ", une IA tirant parti de ces deux branches de l'intelligence artificielle. Par Pierre Vandeginste https://www.sciencesetavenir.fr/high-tech/intelligence-artificielle/ia-pvdg_138526

  • Joly says Canadians ‘want to do more’ to help Haiti as military intervention looms

    3 octobre 2023 | International, Aérospatial, Sécurité

    Joly says Canadians ‘want to do more’ to help Haiti as military intervention looms

    “Canada has always been involved in issues related to Haiti. We will continue to be,” Joly told reporters Tuesday morning on Parliament Hill, in French.

Toutes les nouvelles