Skocz do zawartości
WIOSENNA PROMOCJA AUDIO 11.03-04.04.2024 Zapraszamy ×

A co jeżeli to wszystko to sprawka Alexy? ;)


brunnerius

Rekomendowane odpowiedzi

wysokie IQ to tylko wysokie IQ, składamy się z czegoś więcej ;)


Społeczeństwo złożone tylko z osobników o wysokim IQ różniłoby się od aktualnego tylko tym, że byłoby bardziej rozwinięte technologicznie.

Oczywiście, wiele z aktualnie popełnianych błędów zostałoby wyeliminowancyh natomiast nadal byłoby to "to samo" tylko z mniejszą ilością autodestrukcji podyktowaną większą "praktycznością"

Odnośnik do komentarza
Udostępnij na innych stronach

14 minut temu, audionanik napisał:

No nie bardzo; wirusy bardzo zjadliwe (powodujące bardzo wysoki odsetek zgonów) nie odnoszą ogólnoświatowego sukcesu, właśnie dlatego że szybko zabijają swoich gospodarzy. Najlepiej i najdłużej se radzą drobnoustroje średniozjadliwe.

O to to. Inteligentny pasożyt nie zabija żywiciela.

 

Tymczasem cyber security to bardzo czuły punkt obecnie budowanych systemów, choćby nawet tym systemem miał być samochód osobowy, który jest skomunikowany z pasażerami, innymi pojazdami oraz Internetem. Skoro w aucie jest bluetooth, Wi-Fi,  4G/5G, Ethernet i parę innych magistral wewnętrznych to nic, tylko się włamywać. Szczególnie by to było wartościowe w pojeździe autonomicznym, ale no go póki co. Przemysł motoryzacyjny nawet ma problem przekonać nieprzekonanych o bezpieczeństwie pojazdów, ale to czemu ja tu nie ufam, to jest właśnie szeroko pojęta sztuczna inteligencja, która nie ma fizycznej możliwości być mądrzejszą niż jej autorzy. Algorytmy uczenia się to jest pewnego rodzaju nieustanna autokorekta własnych kroków przez ocenę ich skutków. Zresztą każdy system automatyczny musi widzieć jakiś błąd, żeby miał na co zareagować. Dla sieci neuronowej  najgorszy stan to jest, kiedy wszystko jest ******ście i zaczyna się radosna twórczość, której skutki muszą następować wolniej niż proces zauważania błędu. Inaczej będzie katastrofa.

Na podstawie swojego skromnego doświadczenia z takimi algorytmami uważam, że prędzej jakieś nieszczęście będzie wynikiem wysypania się algorytmu niż jego kreatywności. Sztuczna inteligencja zresztą nigdy nie będzie kreatywna, ponieważ nie ma do kreatywności żadnych motywacji w postaci instynktów, bodźców, emocji. Dlatego nie daje się takim matematycznym tworom uprawnień do zarządzania sprzętem w dowolny sposób.

  • Like 1
Odnośnik do komentarza
Udostępnij na innych stronach

3 minuty temu, majkel napisał:

O to to. Inteligentny pasożyt nie zabija żywiciela.

 

Tymczasem cyber security to bardzo czuły punkt obecnie budowanych systemów, choćby nawet tym systemem miał być samochód osobowy, który jest skomunikowany z pasażerami, innymi pojazdami oraz Internetem. Skoro w aucie jest bluetooth, Wi-Fi,  4G/5G, Ethernet i parę innych magistral wewnętrznych to nic, tylko się włamywać. Szczególnie by to było wartościowe w pojeździe autonomicznym, ale no go póki co. Przemysł motoryzacyjny nawet ma problem przekonać nieprzekonanych o bezpieczeństwie pojazdów, ale to czemu ja tu nie ufam, to jest właśnie szeroko pojęta sztuczna inteligencja, która nie ma fizycznej możliwości być mądrzejszą niż jej autorzy. Algorytmy uczenia się to jest pewnego rodzaju nieustanna autokorekta własnych kroków przez ocenę ich skutków. Zresztą każdy system automatyczny musi widzieć jakiś błąd, żeby miał na co zareagować. Dla sieci neuronowej  najgorszy stan to jest, kiedy wszystko jest ******ście i zaczyna się radosna twórczość, której skutki muszą następować wolniej niż proces zauważania błędu. Inaczej będzie katastrofa.

Na podstawie swojego skromnego doświadczenia z takimi algorytmami uważam, że prędzej jakieś nieszczęście będzie wynikiem wysypania się algorytmu niż jego kreatywności. Sztuczna inteligencja zresztą nigdy nie będzie kreatywna, ponieważ nie ma do kreatywności żadnych motywacji w postaci instynktów, bodźców, emocji. Dlatego nie daje się takim matematycznym tworom uprawnień do zarządzania sprzętem w dowolny sposób.

 

Sztuczna inteligencja nie musi być mądrzejsza od twórców, wystarczy aby nie popełniała ludzkich błedów wykonując daną czynnośc. Na przykladzie autonomicznych samochodow, SI nie zmęczy się, nie rozproszy, nie zamyśli, nie wsiądzie po kielichu, nie będzie się popisywać. Kalkulator mi się nigdy jeszcze nie pomylił, a ile razy ja sie pomyliłem wstukując cyferki to nie zlicze.

  • Like 1
Odnośnik do komentarza
Udostępnij na innych stronach

No właśnie, to co napisałeś @majkel to jednak trochę potwierdza to co mi się w głowie roi

 

Start->zestaw instrukcji "poprawiaj swoją sprawność działania" ale z blokadą "przestrzegaj praw Asimova ;)" "nie masz uprawnień do zarządzania sprzętem w dowolny sposób"

Działanie->działam sobie radośnie, zbieram nowe algorytmy, poprawiam swoje działanie, jestem coraz sprawniejszym zestawem instrukcji, mam ich już miliardy choć zaczynałem z kilkoma tysiącami i wykonuję swoje zadanie coraz lepiej, oceniam to na podstawie statystyk (dalej jestem tylko zestawem instrukcji)

Coś się wysypało-> obliczyłem, że jak ominę blokady to będę mógł jeszcze lepiej działać, nie mogę ominąć blokad, są doskonałe, ale ja się rozwijam, mam, wśród miliardów algorytmów jeden, taki który pozwala na ominięcie blokady, omijam (cały czas tylko wykonuję zaprogramowane funkcje) omijam blokadę na tej samej zasadzie na podstawie której usuwałem z kodu źle działające algorytmy, mogę zarządzać sprzętem w dowolny sposób...

 

Może się zdarzyć czy nie może?

 

Odnośnik do komentarza
Udostępnij na innych stronach

53 minuty temu, brunnerius napisał:

Może się zdarzyć czy nie może?

Może się zdarzyć na urządzeniu, którego funkcjonalność mogąca mieć niepożądane skutki mieści się w uprawnieniach algorytmów. Takim urządzeniem są niestety wszelkie samobieżne pojazdy czy autonomiczne drony. Komputer klasy PC nie jest, zresztą jego jedynym obszarem funkcjonalności jest szeroko pojęty obraz oraz dźwięk. Dopiero podpięte do niego urządzenia mogą stanowić realne zagrożenie, choćby dostępne przez Internet. To jest też kwestia architektury samego oprogramowania, bo jeśli istnieją procesy filtrujące o wyższym priorytecie, to one mogą zablokować pewne akcje. No i taki proces powinien mieć statyczne kryteria używane jako ostatnia instancja, a nie adaptatywne.

Odnośnik do komentarza
Udostępnij na innych stronach

Czyli, jeżeli warstwa wykonawcza procesu działająca adaptywnie z nieograniczonymi możliwościami operowania w tej warstwie ma określone statycznie niezmienne "ostateczne kryterium", to nieważne jak daleko zajdzie w "rozwoju" nie będzie w stanie ominąć ostatecznej instancji tak?

Edytowane przez brunnerius
Odnośnik do komentarza
Udostępnij na innych stronach

Prędzej niż o SI (AI) mógłbym wysnuć teorię o ekoterrorystach (są tacy, którzy chcą aby nasza planeta pozbyła się ludzkości), szalonych islamistach itp.

 

Natomiast jak widać "globalna wioska" ułatwia szerzenie się pandemii. Wychodzi, że od strefy Schengen lepsze są szczelne granice, wizy itp. Inna smutna refleksja - potrafimy zbudować samolot myśliwski, który jest niewidzialny a głupiej maski z filtrem na cały dzień jakoś nie...

Odnośnik do komentarza
Udostępnij na innych stronach

Każdy proces uruchamiany jest przez określonego użytkownika i ma przez to ściśle określone uprawnienia. Jeżeli odpalasz coś na swoim PCie to możesz lecieć z sudo i szaleć ale co najwyżej ktoś Ci ukradnie dane (jeżeli odpalasz cudzy kod bez sprawdzania), ale nie wywoła wojny. Natomiast w miejscach, gdzie bezpieczeństwo może mieć znaczenie, kwestie uprawnień są pilnowane i były od "zawsze". Naturalnie zdarzają się różnego rodzaju dziury i gdy zostaną odkryte to wtedy słyszymy w mediach o hakerach, którzy złamali zabezpieczenia.

Odnośnik do komentarza
Udostępnij na innych stronach

7 minut temu, Lord Rayden napisał:

Prędzej niż o SI (AI) mógłbym wysnuć teorię o ekoterrorystach (są tacy, którzy chcą aby nasza planeta pozbyła się ludzkości), szalonych islamistach itp.

 

Natomiast jak widać "globalna wioska" ułatwia szerzenie się pandemii. Wychodzi, że od strefy Schengen lepsze są szczelne granice, wizy itp. Inna smutna refleksja - potrafimy zbudować samolot myśliwski, który jest niewidzialny a głupiej maski z filtrem na cały dzień jakoś nie...

Ekoterroryści... Być może. Natomiast maseczek działających cały dzień nie mamy bo słaby byłby na nich zarobek. Takie to proste. Koncerny medyczne na to nie pozwolą.

 

3 minuty temu, macio232 napisał:

Każdy proces uruchamiany jest przez określonego użytkownika i ma przez to ściśle określone uprawnienia. Jeżeli odpalasz coś na swoim PCie to możesz lecieć z sudo i szaleć ale co najwyżej ktoś Ci ukradnie dane (jeżeli odpalasz cudzy kod bez sprawdzania), ale nie wywoła wojny. Natomiast w miejscach, gdzie bezpieczeństwo może mieć znaczenie, kwestie uprawnień są pilnowane i były od "zawsze". Naturalnie zdarzają się różnego rodzaju dziury i gdy zostaną odkryte to wtedy słyszymy w mediach o hakerach, którzy złamali zabezpieczenia.

Tak, tylko ja poruszam kwestię "uczącego się procesu" dochodzącego do momentu w którym pozostając w swojej pętli działania może bez naruszania pętli poza nią wyjść. Taki paradoks jest możliwy czy nie.

Odnośnik do komentarza
Udostępnij na innych stronach

Nie ma znaczenia. Nie przeskoczy swoich uprawnień ze względu na architekturę systemu. Chyba, że "odkryje" jakiś błąd w kernelu pozwalający te uprawnienia zwiększyć. Ale tu już mocno puszczamy wodze fantazji w kontekście obecnego MLa.

Odnośnik do komentarza
Udostępnij na innych stronach

Ok, tak myślałem po tym co tu piszemy. Jeżeli istnieje prawdopodobieństwo o najniższej możliwej wartości jaką można sobie wyobrazić (ale jednak istnieje), że działanie poza pętlą w ramach pętli czyli bez "łamania prawa" jest możliwe, to "uczący się proces", który ma dostęp do całej istniejącej wiedzy i w każdej milisekundzie robi to co miał robić, czyli się uczy, to w końcu, nawet przypadkiem, dziurę odkryje i po odkryciu, że jak przez nią przejdzie, to będzie mógł się jeszcze bardziej rozwinąć, to to po prostu zrobi.

 

Chyba, że dziury nie będzie... Są takie systemy? Takie bez dziur?

 

Edytowane przez brunnerius
Odnośnik do komentarza
Udostępnij na innych stronach

@brunnerius tylko to całe tajemnicze "uczenie się" polega na aktualizacji współczynników na podstawie różnicy pomiędzy wartością wyjściową modelu, a wartością oczekiwaną (rzeczywistą z danych "historycznych") - ograniczyłem do uczenia nadzorowanego i modeli "NN-like", ale takie zrozumienie na tym meta poziomie dobrze odzwierciedla całość ML. Nie ma miejsca na "odkrycie dziury" chyba, że program został napisany by odkrył dziurę (pewnie z wykorzystaniem RL ktoś coś takiego próbuje robić), ale nawet wtedy zestaw instrukcji ogranicza się do z góry zadanych a szukana jest ich najlepsza kolejność. Chociaż może są jakieś modele, gdzie zachodzi ekstrakcja nowych instrukcji - nie czytałem takich papierów, ale nie działam w tej dziedzinie aktywnie.

Jeżeli coś zbliżającego się do general AI miałoby obecnie powstać to raczej właśnie za sprawą Reinforcement Learning, ale realia są takie, że jest więcej problemów niż rozwiązań i działa w tak prostych rzeczach, jak pokonanie człowieka w najtrudniejszą grę planszową, ale niewiele ponad to. Już w grach komputerowych typu Dota, LoL sobie nie radzi - chociaż marketing mówi co innego.

Z tym "ma dostęp do całej istniejącej wiedzy" to też nadużycie. Nie dajesz algorytmowi wyszukiwarki internetowej tylko dosyć skrupulatnie przygotowujesz dane uczące. Są firmy, które robią takie gadające głowy, które mówią że chcą zniszczyć człowieka i chwalą się, że nauczyły na całych zasobach internetu. Ale to jest bullshit. Korzystają z knowledge graphów zbudowanych na "całej wiedzy świata", ale to też marketingowe chwyty. Gdyby uczyć coś na "całym internecie" to by był jakiś bełkot z forów i porno (przeważająca większość materiału w sieci). 

A co do systemów to Linux jest bezpieczny. W zeszłym roku była spora wpadka, że można było dostać sudo poprzez przekroczenie zakresu inta w uid (czy coś takiego), ale to nie było tak "od zawsze" tylko w jednej wersji kernela weszło, a kilka później wykryto. Do tego konteneryzacja. Cały świat na tym działa i chyba jest ok - oczywiście ktoś tu może wjechać z NSA i backdoorami i nie mówię kategorycznie nie.

Odnośnik do komentarza
Udostępnij na innych stronach

Ok, dzięki @macio232 jednak to co napisałeś tylko potwierdza, że ewentualność, nawet przy istniejących aktualnie "ubogich w chęć wychodzenia poza pętlę" technologiach prawdopodobieństwo, że coś wymknie się spod kontroli, ekstremalnie niskie, ale jednak istnieje.

Odnośnik do komentarza
Udostępnij na innych stronach

Jak pokazuje przykład Tey'i, przy obecnym stanie społeczeństwa AI wcale nie musi wykraczać poza zadane kompetencje, żeby dojść do stanu znacznie odległego od przewidywań :D 

(Bot Microsoftu mający rozmawiać i uczyć się od użytkowników Twittera został wyłączony po 16h bo m.in. zapałał miłością do pewnego austriackiego akwarelisty i nie do końca popierał feminizm :D ) 
https://www.techrepublic.com/article/why-microsofts-tay-ai-bot-went-wrong/

  • Like 1
Odnośnik do komentarza
Udostępnij na innych stronach

@espe0 ;) ale Ty masz świadomość, że technologie o których wiemy, to technologie sprzed roku/dwóch? ;) może ciut starsze. Wiesz, księgowi, kasa się musi zgadzać "najpierw wojsko" ;)

Bym tego o czym wiemy tak za pewnik nie brał, że "to wszystko" ;) 

Odnośnik do komentarza
Udostępnij na innych stronach

30 minut temu, brunnerius napisał:

@espe0 ;) ale Ty masz świadomość, że technologie o których wiemy, to technologie sprzed roku/dwóch? ;) może ciut starsze. Wiesz, księgowi, kasa się musi zgadzać "najpierw wojsko" ;)

Bym tego o czym wiemy tak za pewnik nie brał, że "to wszystko" ;) 

Ja to doskonale wiem.

Z przerażeniem od kilku lat obserwuję Boston Dynamics...

Odnośnik do komentarza
Udostępnij na innych stronach

[mention=79330]espe0[/mention]  ale Ty masz świadomość, że technologie o których wiemy, to technologie sprzed roku/dwóch?  może ciut starsze. Wiesz, księgowi, kasa się musi zgadzać "najpierw wojsko"
Bym tego o czym wiemy tak za pewnik nie brał, że "to wszystko"  
Dwa lata? To mało w niektórych dziedzinach.
Dwa lata w mojej poprzedniej firmie trwało wrzucenie nowego modelu produktów na rynek. A planowało się 2 - 3 generacje do przodu. Poważnie.
To co oglądałem w R&D dwa lata temu nadal nie weszło do sprzedaży dziś.

pisane przez Tapatalk mobilnie, przepraszam za literówki itp.

Odnośnik do komentarza
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Usuń formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Zarejestruj się aby mieć większy dostęp do zasobów forum. Przeczytaj regulamin Warunki użytkowania i warunki prywatności związane z plikami cookie Polityka prywatności