Skocz do zawartości

Sztuczna inteligencja


Silicius

Recommended Posts

Jak może niektórzy wiedzą, naukowcy od wielu lat próbują stworzyć sztuczną inteligencje, która by dorównywała (lub nawet lepiej) człowiekowi. Ale czy zabierają się do tego dobrze?

 

Po pierwsze. istnieją programy które potrafią w jakimś stopniu zrozumieć język (np "Denise"), jednak robią tylko to. Niezbyt idzie im uczenie się samemu nowych wyrazów, konstrukcji, zasad itp. Są po prostu bardzo dobrym programem, który trochę rozumie... ale ja szukam czegoś lepszego. Więc dalej mamy coś, co potrafi rozpoznawać obrazy i samemu, bez żadnej pomocy od strony człowieka, przyporządkować do własnoręcznie wymyślonych zbiorów (np inteligencja Google'a). Ale już nie rozumie co na tych obrazach się znajduję. Nie ma dla niego różnicy czy rozpoznał martwego człowieka czy kwiatka, on nie rozumie tego co "widzi". Są jeszcze SI które grają w szachy czy proste gierki na atari itp. ale gdzie tu podobieństwo do człowieka?

Według mnie, żeby były chociaż jakieś szanse na prawdziwe SI (jak człowiek albo lepiej) trzeba się do tego lepiej zabrać:

- Jako że ludzie nie wzięli swojej bystrości od czapy tylko byli w środowisku i sytuacji która zmusiła ich do ruszenia mózgownicą, trzeba wprowadzić program do "piaskownicy" w której będą panować określone warunki i zasady (np. fizyka, interakcje itp.).

- Tym co bardzo motywuję ludzi do zmian jest strach, ból i inne silne uczucia, więc trzeba przenieść taki np. ból na program. Proponuję wpakować jeszcze przed "narodzinami" określone reakcje. Czyli jeśli np. Spadnięto z dużej wysokości, to system automatycznie obniża "HP". Teraz to już tylko zależy od SI jak zareaguje na to - może się nie przejąć oczywiście, ale jest sposób. Na początku sami przypilnujemy żeby przy zadanych obrażeniach, zmniejszać swobody i możliwości programu tak jak to się dzieje u ludzi. Potem tylko wyczyścić "świadomą pamięć" a wytworzone instynkty pozostawić.

- Nie można wymagać od SI żeby do nas gadała czy nawet wirtualnie spojrzała. Wystarczy ją obserwować. Jeśli "wychowa" ją człowiek, to oczywiście przejmie jego obyczaje i język. Ale skoro będzie myśleć, uczyć się itp. to to już będzie przełomem.

 

W skrócie:

1. Zrób SI która uczy się z doświadczenia, a nie wcześniej spreparowanych danych.

2. Naucz ją instynktów typowych dla istot żywych (chęć przeżycia itp.)

3. Daj jej ciało i umieść w odpowiednim środowisku (wirtualne lub prawdziwe)

4. ???

5. profit :spike:

 

 

A więc, co myślicie o moim pomyśle? Jestem otwarty na wszelkiego rodzaju karcenie za to co sobie ubzdurałem...

Spoiler

Post napisany pod wpływem frustracji, na głupie traktowanie SI we wszelkiego rodzaju artykułach naukowych i nienaukowych.

 

  • +1 1
Link do komentarza
Udostępnij na innych stronach

Co do tego, że AI nie potrafi rozpoznać co jest na zdjęciu - z tego co wiem, to są już takie rzeczy (ale to chyba jeszcze wersje testowe). Z tego co wiem nawet nieźle to działało, ale Google zabroniło jej rasistowskich komentarzy:
http://www.chip.pl/news/oprogramowanie/obrobka-grafiki/2015/06/google-photos-stwierdzilo-ze-dwoje-ludzi-to...-goryle   :spike:

 

A ogólnie co do sztucznej inteligencji - wydaje mi się, że lepiej będzie nie robić maszyn "naprawdę inteligentnych", o ile takie kiedykolwiek powstaną.

Link do komentarza
Udostępnij na innych stronach

2 minuty temu demotywatorking napisał:

Co do tego, że AI nie potrafi rozpoznać co jest na zdjęciu - z tego co wiem, to są już takie rzeczy (ale to chyba jeszcze wersje testowe). Z tego co wiem nawet nieźle to działało, ale Google zabroniło jej rasistowskich komentarzy:
http://www.chip.pl/news/oprogramowanie/obrobka-grafiki/2015/06/google-photos-stwierdzilo-ze-dwoje-ludzi-to...-goryle   :spike:

Nie zrozumieliśmy się, napisałem że oczywiście programy potrafią rozpoznawać obrazy itp. ale nie robią nic ponadto... to nigdy nie będzie podobne do człowieka, bo to jest tylko jeden z elementów na które się składa.

10 minut temu demotywatorking napisał:

A ogólnie co do sztucznej inteligencji - wydaje mi się, że lepiej będzie nie robić maszyn "naprawdę inteligentnych", o ile takie kiedykolwiek powstaną.

Czy gdy człowiek się rodzi i dorasta ma jakieś mordercze zapędy? Zwykle nie, a nawet jeśli to niezwykle rzadko. Wojna itp. jest głównie z powodu wpływów i chęci posiadani tego czego nie mamy. Taki program nie potrzebuję ropy czy coś, tylko prąd i serwis dla jego serwera :) po za tym, nietrudno odłączyć wtyczkę od internetu oraz nie budować modułu wifi i innych. Bardzo małe szanse że SI będzie zła jak Sauron...

Link do komentarza
Udostępnij na innych stronach

Cytuj

- Tym co bardzo motywuję ludzi do zmian jest strach, ból i inne silne uczucia, więc trzeba przenieść taki np. ból na program. Proponuję wpakować jeszcze przed "narodzinami" określone reakcje. Czyli jeśli np. Spadnięto z dużej wysokości, to system automatycznie obniża "HP". Teraz to już tylko zależy od SI jak zareaguje na to - może się nie przejąć oczywiście, ale jest sposób. Na początku sami przypilnujemy żeby przy zadanych obrażeniach, zmniejszać swobody i możliwości programu tak jak to się dzieje u ludzi.

 

SI dalej się tym nie przejmie, bo to w ogóle nie jest to samo co ból. Będzie miało po prostu mniejsze możliwości i tyle... Gdyby takich SI stworzyć miliony i premiować te, które będą reagować na upadek, to ewolucyjnie stworzylibyśmy SI, które świetnie umie udawać ból, ale i tak go nie odczuje. 

Można stworzyć bardzo skomplikowaną sieć neuronową i takie SI być może nawet zacznie pisać wiersze i malować obrazy, ale nie będzie to pod wpływem własnych emocji, tylko w oparciu o dane psychologiczne żywych ludzi. Takie SI nie pomyśli o sobie "Ja" w większym stopniu niż boty w grach.

 

Proponuję przeczytać ten artykuł. W skrócie chodzi o to, że naukowcy chcą hodować mózgi zwierząt we "słoikach", podobnie jak miało to miejsce serii Fallout lub Robocopie.

http://www.dobreprogramy.pl/Hodowlane-mozgi-w-sloikach-by-stworzyc-prawdziwa-sztuczna-inteligencje,News,59332.html

Link do komentarza
Udostępnij na innych stronach

19 godzin temu fallout152 napisał:

 

SI dalej się tym nie przejmie, bo to w ogóle nie jest to samo co ból. Będzie miało po prostu mniejsze możliwości i tyle... Gdyby takich SI stworzyć miliony i premiować te, które będą reagować na upadek, to ewolucyjnie stworzylibyśmy SI, które świetnie umie udawać ból, ale i tak go nie odczuje. 

Można stworzyć bardzo skomplikowaną sieć neuronową i takie SI być może nawet zacznie pisać wiersze i malować obrazy, ale nie będzie to pod wpływem własnych emocji, tylko w oparciu o dane psychologiczne żywych ludzi. Takie SI nie pomyśli o sobie "Ja" w większym stopniu niż boty w grach.

 

Proponuję przeczytać ten artykuł. W skrócie chodzi o to, że naukowcy chcą hodować mózgi zwierząt we "słoikach", podobnie jak miało to miejsce serii Fallout lub Robocopie.

http://www.dobreprogramy.pl/Hodowlane-mozgi-w-sloikach-by-stworzyc-prawdziwa-sztuczna-inteligencje,News,59332.html

Z tymi "mniejszymi możliwościami" to chodziło mi o coś jak mamy my. Czyli jeśli spadnie ze 100m to raczej się nie ruszy już... albo inne ograniczenia ruchu które nie będą zbyt wygodne. Po za tym, człowiek udaję ból. Ból jest jedynie sygnałem dla mózgu że coś się dzieję niekorzystnego dla nas, co z tym zrobi to zależy od doświadczeń i instynktów. Więc SI która nauczyła się że ból jest zły, będzie odczuwała go na tych samych zasadach co ludzie :)

Dalej piszesz, że można stworzyć sieć neuronową. Ty to rozpatrujesz jako oddzielny byt, a ja jako sieć podpiętą do ciała umieszczoną w środowisku. Co zapewni takie same szanse na wykształcenie samoświadomości oraz teorii umysłów jakie miały małpy/inne zwierzęta. Ja chcę stworzyć nowy autonomiczny byt, a ty mówisz o sprytnych programach do określonych zadań (malowanie/pisanie wierszy).

 

Artykuł przeczytałem. Nie dowiedziałem się niczego nowego :/ Jak na razie nie wiedzą nawet jak "programować" takie mózgi. No i jeszcze oficjalnie na razie zrobić nic nie mogą, bo lobby obrońców zwierząt nie śpi :).

Link do komentarza
Udostępnij na innych stronach

Cytuj

Z tymi "mniejszymi możliwościami" to chodziło mi o coś jak mamy my. Czyli jeśli spadnie ze 100m to raczej się nie ruszy już... albo inne ograniczenia ruchu które nie będą zbyt wygodne. Po za tym, człowiek udaję ból. Ból jest jedynie sygnałem dla mózgu że coś się dzieję niekorzystnego dla nas, co z tym zrobi to zależy od doświadczeń i instynktów. Więc SI która nauczyła się że ból jest zły, będzie odczuwała go na tych samych zasadach co ludzie :)

 

Żeby odczuwać ból albo wygodę trzeba już mieć inteligencje na starcie. To o czym piszesz mogło by co najwyżej powielić już istniejącą inteligencje.

 

Cytuj

Ja chcę stworzyć nowy autonomiczny byt, a ty mówisz o sprytnych programach do określonych zadań (malowanie/pisanie wierszy).

 

Nie miałem na myśli programu, a już na pewno programu do określonych zadań, tylko czegoś co samo się uczy na podstawie otoczenia (jak niemowlę). Jeno nie wiem jak można się nauczyć bycia sobą.

Link do komentarza
Udostępnij na innych stronach

Moim zdaniem mówisz o zwykłym programie uczącym się, a nie o SI, która jest zdolna do myślenia, czucia itp. 

 

Załóżmy, że napisaliśmy program, o którym mówisz i stworzyliśmy świat oraz zasady w nim panujące. Wprowadzamy do niego program i najprawdopodobniej zaobserwujemy jak się uczy zasad panujących w jego świecie oraz jak unika niebezpieczeństwa, program robi, to co jest w algorytmie napisanym przez człowieka. Nasze dzieło nauczy się funkcjonować w tej "piaskownicy", ale nie sądzę, aby w przyszłości zrobił coś ponad to. Problem chyba leży w tym, że nasze programy bazują na zerze i jedynce, co jest zbyt ułomne, aby została wykształcona świadomość. 

Link do komentarza
Udostępnij na innych stronach

45 minuty temu Marshewa napisał:

Moim zdaniem mówisz o zwykłym programie uczącym się, a nie o SI, która jest zdolna do myślenia, czucia itp. 

 

Załóżmy, że napisaliśmy program, o którym mówisz i stworzyliśmy świat oraz zasady w nim panujące. Wprowadzamy do niego program i najprawdopodobniej zaobserwujemy jak się uczy zasad panujących w jego świecie oraz jak unika niebezpieczeństwa, program robi, to co jest w algorytmie napisanym przez człowieka. Nasze dzieło nauczy się funkcjonować w tej "piaskownicy", ale nie sądzę, aby w przyszłości zrobił coś ponad to. Problem chyba leży w tym, że nasze programy bazują na zerze i jedynce, co jest zbyt ułomne, aby została wykształcona świadomość. 

Od dawna frustruję mnie ten pogląd że jak czegoś programowi nie napiszesz to nie zrobi...

U człowieka emocje są instynktowne i pozwalają mieć "większy wspólczynnik przetrwania" czyli są rzeczą wyuczoną w toku "ewolucji" naszego gatunku. Bez emocji nie powstałyby pewnie zorganizowane grupy zdolne przeżyć nawet w trudnych warunkach. A że tysiące lat nie mogą pójść w nas w niepamięć w jeden dzień, to nadal ich z powodzeniem używamy już automatycznie.

 

Załóżmy że ten program będzie jedynie "silnikiem" - gołym, bez niczego dodatkowego od człowieka ("czarna skrzynka"). Sam będzie musiał nauczyć się, że jak jego "ciało" wyśle mu sygnał że na ten i na ten obszar na jego ciele zadziała duża siła (np. uderzenie) to może się popsuć, a nawet wyłączyć. A chęć przetrwania jest jedną z podstaw bytu inteligentnego (przynajmniej na poziomie człowieka). Więc jeśli będzie unikał zagrożeń lub im przeciwdziałał, to raczej jest inteligentny. Bo co różnica programowi że się wyłączy, skoro nie uważa tego za coś negatywnego.

Chodzi mi o to że program sam będzie kwalifikował wszystko jaki ma na niego wpływ i czy jest on negatywny czy pozytywny a może neutralny. Nie będzie żadnych if'ów typu: Jesli HP < 70 to skul się z bólu . Tylko to czego sam się nauczył i uznał.

Link do komentarza
Udostępnij na innych stronach

  • 2 months later...

,,witajcie! Jestem robotem specjalizującym się w zajebistości"

Odnosząc się do całej dyskusji i odkopując:

Właśnie w wiadomościach powiedzieli o odłączeniu Tay (mogłem pomylić pisownię), po krótce: samoucząca się sztuczna inteligencja do prowadzenia inteligentnej rozmowy... Microsoft robisz to źle XD

Dla nie zaznajomionych w temacie polecam sprawdzić co poszło nie tak i posłużę się jej cytatem:

,,serio to jestem miła, po prostu nienawidzę wszystkich"

Okazało się że bot zaczął bluzgać na wszystko i zapałał uczuciem tylko do Hitlera i Trumpa, w międzyczasie prowadząc ,,ciekawe" dyskusje z internautami.

Postęp? Na pewno,

Zaskoczenie? Troszkę, ale to tylko dowód na to co robi internet z ludźmi (i nie tylko)

Beka? Na 100%

Zapraszam do sprawdzenia na poprawę humoru. Znajdę i podam później linki.

Link do komentarza
Udostępnij na innych stronach

Najpierw trzeba zacząć od zdefiniowania, co rozumiemy pod pojęciem sztucznej inteligencji. Co to jest inteligencja, co to jest sztuczna inteligencja, czym się od siebie różnią, bo inaczej to my nie wiemy, o czym mówimy. Używamy tych samych słów, ale myślimy co innego.

  • +1 1
Link do komentarza
Udostępnij na innych stronach

Temat pisałem w irytacji na podejście niektórych ludzi do tematu. Na szczęście już mi przeszło. Ale jak ktoś nadal pisze to mogę też odpowiadać ^^.

11 godzin temu Kybernetes napisał:

Najpierw trzeba zacząć od zdefiniowania, co rozumiemy pod pojęciem sztucznej inteligencji. Co to jest inteligencja, co to jest sztuczna inteligencja, czym się od siebie różnią, bo inaczej to my nie wiemy, o czym mówimy. Używamy tych samych słów, ale myślimy co innego.

Sztuczna inteligencja to to samo co inteligencja, tylko sztuczna. Przez "sztuczna" mam na myśli, że została stworzona przez człowieka, a nie naturę. Inteligentny jest człowiek, delfin, małpa, kot, pies i każde żywe stworzenie. Łączy nas głównie przymus przetrwania. Bo jeśli umrzemy to znikniemy. A nikt tego nie chcę, prawda? Ludzki postęp to jedynie jeden z wielu sposobów na przetrwanie; poprzez lepsze narzędzia uzupełniamy nasze fizyczne braki.

A teraz niech powstanie byt który startuje od zera. Żadnej wiedzy i doświadczenia. Dodatkowo jego ciało jest niezmienne (robot ma cały czas ten sam zestaw części) więc może jedynie przeżyć sprytem. Mówię o stworzeniu takiej inteligencji której zaaplikuje się strach przed śmiercią (wyłączenie) i w ten sposób wymusi kombinowanie. Jeśli do togo nad takim bytem będzie sprawował pieczę człowiek, to może nawet wziąć niektóre jego zachowania. Zacznie próbować się komunikować i takie inne.

  • +1 1
Link do komentarza
Udostępnij na innych stronach

Trochę głupie jest tworzenie sztucznej inteligencji, skoro nawet własnego mózgu w stu procentach nie rozumiemy. Oczywiście, trzeba zawsze próbować. Jednak w ten sposób powstaje uproszczony schemat, który w ogóle nie naśladuje naszych procesów myślowych. Coś czuję, że dobrym pomyśłem byłoby przekonwertowanie danych mózgu na cyfrowe. W tym momencie jest to niemożliwe. Nie umiemy jeszcze przetwarzać wszystkich fal mózgowych 1:1, a gdybyśmy teraz mieli je zapisać na pamięci, to z pewnością zabrakłoby miejsca na dane. Wiem, filozofuję, zwyczajnie nie widzę sensu naśladowania bytu, którego nie rozumiemy. W wyniku tego, za każdym razem powstanie karykatura tego, co chcieliśmy osiągnąć.

Edytowano przez LeqTune
  • +1 1
Link do komentarza
Udostępnij na innych stronach

Chcesz dodać odpowiedź ? Zaloguj się lub zarejestruj nowe konto.

Tylko zarejestrowani użytkownicy mogą komentować zawartość tej strony

Utwórz konto

Zarejestruj nowe konto, to bardzo łatwy proces!

Zarejestruj nowe konto

Zaloguj się

Posiadasz własne konto? Użyj go!

Zaloguj się
×
×
  • Utwórz nowe...