Bonjour,
merci
Bloqué par uBlock Origin :
[QUOTE]
uBlock₀ a empêché le chargement de la page suivante :
À cause du filtre suivant :
||taboola.com^
Trouvé dans :
Peter Lowe’s Ad and tracking server list
[/QUOTE]
@JPL : C'est un site classique pub et "clickbait", loin d'être un référence en news, encore moins en tech...
On a vu l'info passer il y a un moment déjà, "débunkée" je crois...
Mais si ça donne à réfléchir, tant mieux...
ah, j'accède normalement à la page quand je clique dessus avec ccleaner browser,
je vais essayer avec google
avec google ça marche aussi
@JPL : C'est un site classique pub et "clickbait", loin d'être un référence en news, encore moins en tech...
On a vu l'info passer il y a un moment déjà, "débunkée" je crois... Mais si ça donne à réfléchir, tant mieux...
j'aime autant ça ! merci pour l'info ;)
Quand j'aurais un peu de temps je chercherais une bonne source...
Je pensais a la chaîne de ATE "chuet" ancien pilote de chasse, mais n'est pas trouvé de vidéo relative...
Je regarderais plus sérieusement, ou sur des chaînes IA (sérieuses), ou des sites de veille IA...
Oui c'est un délire débunké en effet et déjà abordé ici.
Globalement, la peur de l'IA fait vendre ce qui explique ce genre d'articles, quelques bon films de SF et beaucoup de mauvais.
perso, je me méfie des prises de décision de la part d'une machine, voir le souci des derniers Boeing (787 dreamliner je crois ?), la logique croit que l'avion est câbré et va sortir de son domaine de vol, elle pousse sur le manche, ce qui fait piquer l'avion jusque au crash,
si ce que j'ai lu est exact, les pilotes auraient du être formés à une procédure particulière mais ça n'a pas été le cas
cette solution avait sans doute été développée pour parer aux mauvais reflexes de pilotes qui tiraient sur le manche dès qu'une alarme "stall" se fesait entendre
Sauf qu'un exemple qui n'est pas lié à la machine mais aux erreurs humains chez Boeing pour faire des économies ne permet pas de conclure.
Et qu'en aviation, la généralisation des pilotes automatiques a eu un effet très favorable sur le taux d'accidents.
Bonjour.
Quand j'aurais un peu de temps je chercherais une bonne source...
Même pas besoin.
La source elle-même (le compte rendu internet de la conférence) a été mise à jour le 2 juin 2023.
[QUOTE]
[UPDATE 2/6/23 - in communication with AEROSPACE - Col Hamilton admits he "mis-spoke" in his presentation at the Royal Aeronautical Society FCAS Summit and* the 'rogue AI drone simulation' was a hypothetical "thought experiment" from outside the military, based on plausible scenarios and likely outcomes rather than an actual USAF real-world simulation** saying: "We've never run that experiment, nor would we need to in order to realise that this is a plausible outcome". He clarifies that the USAF has not tested any weaponised AI in this way (real or simulated) and says "Despite this being a hypothetical example, this illustrates the real-world challenges posed by AI-powered capability and is why the Air Force is committed to the ethical development of AI".]
[/QUOTE]
*
Merci ArchZaure !
Sauf qu'un exemple qui n'est pas lié à la machine mais aux erreurs humains chez Boeing pour faire des économies ne permet pas de conclure. Et qu'en aviation, la généralisation des pilotes automatiques a eu un effet très favorable sur le taux d'accidents.
c'est bien la machine qui faisait piquer l'avion par erreur
c'est bien la machine qui faisait piquer l'avion par erreur
Si ce niveau d'explication te convient bien que ce soit faux, simpliste et qu'on ne puisse pas en tirer les "conclusions" auxquelles tu aboutissais plus haut, alors tout va bien.