Thread (1/4): Quick food for thought, why #AI and #Machinelearning need to be discussed together with the debates on autonomy and #LAWS: The key of AI are not the smarter/faster/more complex decisions, this can be reached with classic algorithms, too. But...
Thread (2/4): The key of #AI is, that the underlying code produces decisions that go beyond explainability, control, surveillance and possibly even beyond human influence...
Thread (3/4): Even if the code does not pull the trigger, humans will tend to believe the decisions or pre-decisions/filter/sorting/assesment of machines and presumambly follow its suggestions - which is imho in a way already autonomy from human influence and oversight...
Thread (4/4): When looking on the human-(in/on/out)-of-the-loop debates from #LAWS, this raises the same questions and ethical dilemmas (and in the end, wil faciliate the same technical concepts and systems). Any thoughts on that @NiklasSchoernig@JohannaPolle@adahlma et. al. ?
• • •
Missing some Tweet in this thread? You can try to
force a refresh
RüKo im Fokus: "Wir setzen uns für eine Wiederbelebung der intern. Abrüstung & Rüstungskontrolle ein. Unsere Sicherheit & der Schutz unserer Lebensgrundlagen erfordern globale Zusammenarbeit, eine Stärkung der VN sowie eine regelbasierte internationale Ordnung" /2
Dies betrifft insb. auch den Cyberspace: "Wir verfolgen im digitalen Raum eine Politik der Abrüstung. Dazu
gehören auch ein Stopp der Weitergabe von Überwachungstechnologien an repressive Regime sowie
der Schutz ziviler Infrastruktur vor Cyberangriffen" /3
Update zu militär. Cyber-Operationen in DE. Die BReg hat auf eine kleine Anfrage der FDP-Fraktion ein paar interessante Details zur Rolle des #BND bei Cyber-Operationen preisgegeben. Leider wieder sehr viele Verschlusssachen, trotzdem hier ein Thread mit den Highlights: /1
Lt. BReg darf die BW Cyberops nur zur „Wahrnehmung des Verfassungsauftrags der Streitkräfte zur Verteidigung (..) bzw. im Rahmen eines Systems gegenseitiger kollektiver Sicherheit“ durchführen. Soweit nichts Neues. /2
Für diese Fälle sieht die BReg keine Regelungslücken und verweist auf das internationale humanitäre Recht, dass natürlich auch im Cyberspace gilt (oder gelten sollte). Gleichzeitig ist die Erstellung eines Cyber-Lagebildes für diese Aufgabenwahrnehmung entscheidend. /3
As a follow-up on my recent short cyber/AI analysis of the Germany's "Future vision" for the armed forces and regarding the start of the NATO 2030 talk, I took a look into the NATO 2030 strategy paper & what it has to say about these two ares of technology. A short thread /1
Cyber has a dedicated chapter in the paper, and it starts with this interesting statement „Hybrid and cyber attacks are not, themselves, threats; they are tools employed by hostile actors, state, and non-state actors alike, that are the threat“. /2
This analysis states that cyber activities are often driven by strategic interests by some actors. This perspective is somehow limited to the case of actors that lock on a single target (another state) but ignores broad but still high-value attacks like against SolarWinds .../3
Es ist zwar schon ein paar Tage her, aber hier noch meine Cyber/KI-Perspektive auf das kürzlich von AKK und Generalinspekteur veröffentlichte „Positionspapier: Gedanken zur Bundeswehr der Zukunft“ (Thread 1/):
Zum einen fällt auf, wie mMn wenig die neuen Technologien tatsächlich konkret benannt werden. Ja es ist „nur“ ein Positionspapier, aber es wäre dennoch interessant gewesen was BMVg & BW nun u.a. mit Cyber/KI-Fähigkeiten erzielen wollen. /2
KI wird übrigens gar nicht genannt während es andernorts als Gamechanger rege in der Diskussion ist. /3
A quick (and unsettling) threat how AI is already shaping the future of ground & drone based combat. A few days back the US Army fully tested its "Project Convergence 2020", an AI enabled quasi automatic from sensor to shooter toolchain with an engagement time of just seconds /1
I recommend reading the news article (source at bottom) because it simply shows how mil. decision makers want AI to collect the data, decide over target & select the impact measure. The operator still has to click "OK" but thats not "ethical use of AI". /2
At the point when a human sees the processed data and has to decide if/if not to pull the trigger, the machine already has filtered out so many information and pre-decided over target, tactics, situational conditions etc. a human simply cannot trace back / evaluate /3
Money-Quote v. Forschungsdirektor Igel "Alle Menschen wollen sicher leben und sicher das Internet benutzen (..) Und gleichzeitig gibt es eine gewisse Zurückhaltung, dafür auch Forschung zu betreiben – gerade auch dann, wenn die Ergebnisse militärisch genutzt werden könnten."
Ja genau, sollte das nicht exakt so sein? Kritische Technikfolgenabschätzung war in der Informatik mal ein Wert der offensichtlich hier als Hindernis wahrgenommen wird. Ist das nächste Argumentations.-Level dann "wenn wir es nicht machen, machen es andere"?