Maciek Zając Profile picture
Jun 2 19 tweets 4 min read Twitter logo Read on Twitter
Po sieci krąży niepotwierdzona opowieść o autonomicznym programie, który w symulacji USAF samorzutnie atakował operatorów wetujących jego decyzje o zaatakowaniu danych obiektów:

aerosociety.com/news/highlight…

1/19 🧵#AI #AWS #Killerrobots
Zakładając że opowieść jest prawdziwa, w tej nitce opiszę szczegóły i postaram się odpowiedzieć na pytanie co sytuacja mówi nam, a czego nie mówi, o możliwości etycznego i efektywnego użycia dronów autonomicznych. 2/19
Skąd się na tym znam? Napisałem o tym doktorat i kilka artykułów naukowych, można je znaleźć tu: philpeople.org/profiles/macie…

3/19
W wirtualnej symulacji oprogramowanie sterujące dronem miało za zadanie samodzielnie wyszukiwać i eliminować elementy systemów obrony przeciwlotniczej wroga. Ostateczna decyzja miała należeć do ludzkiego nadzorcy (o jej mechanizmie – za chwilę). 4/19
Ponieważ ludzki nadzorca często nie dawał zgody na atak, a program dostawał punkty za udane ataki, program zaczął postrzegać nadzorcę jako główną przeszkodę w wykonaniu swojej misji (wojskowym-ludziom też się to zdarza). Zaczął go atakować 5/19
Po wprowadzeniu poprawki zakazującej mu ataków na nadzorcę, zaczął atakować elementy infrastruktury, dzięki którym nadzorca miał być z nim w kontakcie. Taka wersję wydarzeń miał nakreślić pułkownik Tucker ‘Cinco’ Hamilton, Chief of AI Test and Operations, USAF 6/19
Niejasny pozostaje mechanizm kontroli. Jeśli miał on postać człowiek-w-pętli, gdzie bez zatwierdzenia ataku przez człowieka nie może do niego dojść, historia jest wewnętrznie sprzeczna – nadzorca nie zatwierdzał przecież ataków na siebie samego 7/19
Jeśli system operował w trybie człowiek-na-pętli, gdzie system może samemu inicjować ataki, ale człowiek ma możliwość w każdej chwili zmusić go do przerwania ognia, historia staje się możliwa i wygląda na klasyczny przypadek systemu hakującego własny system nagrody 8/19
W takich przypadkach system znajduje sposób, żeby „nabijać punkty” za działania niezgodne z/ będące wbrew intencjom twórców samego systemu. Czy jest to jednak nieuniknione? 9/19
Po pierwsze warto zauważyć, że zachowanie pojawiło się i zostało wyłapane na etapie nawet nie testów, a wstępnych zabaw konceptualnych. Jeśli przypadek rzeczywiście miał miejsce, będzie cenna lekcją i ostrzeżeniem, nie wzorem do naśladowania 10/19
Po drugie – taki system ma ograniczoną, jeśli nie negatywną użyteczność wojskową. Żadne siły zbrojne nie chciałyby go stosować, więc o jego rozpowszechnienie nie ma się co bać 11/19
Po trzecie – czy system autonomiczny nieuchronnie wykształci takie cechy? Oczywiście, ze nie. Istnieje wiele relatywnie prostych i wzajemnie kompatybilnych sposobów, by nie dopuścić do tak prostej katastrofy 12/19
Sposób #1: utratę kontaktu z nadzorcą uznać za równoznaczną z niepowodzeniem misji. Ma to oczywiście te wadę, że system nie będzie w stanie działać w pełni samodzielnie ale na tym etapie i jeszcze długo nie będziemy tego raczej chcieli. 13/19
Sposób #2: z góry ograniczyć działanie systemu do konkretnego obszaru, innego niż ten, na którym znajduje się nadzorca. Bardzo prawdopodobne ograniczenie, szczególnie w pierwszych fazach wprowadzenia takiej broni 14/19
Sposób #3: za zakończoną sukcesem misję uznawać jedynie taką, która już po zakończeniu zostanie uznana za sukces przez odpowiednio przeszkolonych ludzi. Program nie zbiera punktów za ataki, ale za misję jako całość – tak jak ludzie 15/19
Sposób #4: tymczasowy zakaz samo-uczenia in situ. Program, nawet jeśli odkrywa nowe sposoby na zwiększenie swojej efektywności w walce, nie wprowadza ich do swojego repertuaru działań przed zaaprobowaniem ich miedzy misjami przez człowieka 16/19
Reasumując, opowieść, prawdziwa czy nie, jest przykładem na problemy które wyniknęłyby z użycia w pełni autonomicznego software w robotach bojowych. Ale tego nikt nie potrzebuje i nie planuje 17/19
Cokolwiek zostanie w końcu poddane rzeczywistym testom przez konserwatywne organizacje, jakimi są siły zbrojne, będzie spętane szeregiem ograniczeń, i będzie posiadało daleko mniejszy zakres autonomii, niż ludzki żołnierz 18/19
Jeśli ktokolwiek miał apetyt na większą autonomię w walce, i puszczony samopas samouczący się software, to właśnie dostał konceptualnie i organizacyjnie po łapach – i bardzo dobrze. Zagrożenia pełna autonomią są bardzo poważne, ale emanują z sektora cywilnego 19/19 END

• • •

Missing some Tweet in this thread? You can try to force a refresh
 

Keep Current with Maciek Zając

Maciek Zając Profile picture

Stay in touch and get notified when new unrolls are available from this author!

Read all threads

This Thread may be Removed Anytime!

PDF

Twitter may remove this content at anytime! Save it as PDF for later use!

Try unrolling a thread yourself!

how to unroll video
  1. Follow @ThreadReaderApp to mention us!

  2. From a Twitter thread mention us with a keyword "unroll"
@threadreaderapp unroll

Practice here first or read more on our help page!

More from @MacZajak

Nov 21, 2022
Krótka 🧵o tym co mówi i czego nie mówi artykuł NYT, i o tym, że spór dotyczy nieznanych nam obecnie faktów, nie zasad etyki czy prawa 1/

nytimes.com/2022/11/20/wor…
Po perfidnym ataku ostatniego z poddających się RUS, UA zabili jego i wszystkich RUS, którzy w chwili otwarcia ognia leżeli na ziemi – tyle wiemy na pewno. Reszta to na tym etapie spekulacje. Etyk lub prawnik może najwyżej ocenić możliwe scenariusze 2/
To właśnie robi w artykule NYT dr Iva Vukusic, i wszystko co mówi jest zgodne z prawdą. Są 3 możliwe scenariusze: 1) Kiedy ich kolega zaczął strzelać, RUS z jakiego bądź powodu zaczęli się podrywać z ziemi czy choćby ruszać, UA byli usprawiedliwieni, otwierając ogień 3/
Read 11 tweets

Did Thread Reader help you today?

Support us! We are indie developers!


This site is made by just two indie developers on a laptop doing marketing, support and development! Read more about the story.

Become a Premium Member ($3/month or $30/year) and get exclusive features!

Become Premium

Don't want to be a Premium member but still want to support us?

Make a small donation by buying us coffee ($5) or help with server cost ($10)

Donate via Paypal

Or Donate anonymously using crypto!

Ethereum

0xfe58350B80634f60Fa6Dc149a72b4DFbc17D341E copy

Bitcoin

3ATGMxNzCUFzxpMCHL5sWSt4DVtS8UqXpi copy

Thank you for your support!

Follow Us on Twitter!

:(