USS Phoenix
Logo
USS Phoenix forum / Science-Fiction / Sztuczna Inteligencja w ST i reszcie SF
 Strona:  1  2  3  »» 
Autor Wiadomość
Q__
Moderator
#1 - Wysłana: 18 Lip 2006 21:19:13 - Edytowany przez: Q__
Odpowiedz 
Sztuczna Inteligencja i jej stworzenie to jedno z największych marzeń, i jeden z największych lęków w SF. W samym ST ma postać dziewcząt-androidów ("I, Mudd"), zbuntowanego komputera, wyposażonego przez potężnych Obcych w rozum V'Gera (który zaczynał swą deogę jako ziemska sonda), dążącego do człowieczeństwa Daty, cyborgicznego Kolektywu Borg, przekraczających na naszych oczach próg samoświadomości Moriartego i Doctora...

Z innych autorów wymienić trzeba rzecz jasna: Asimova z jego cyklem "robocich" opowiadań i powieści, Lema z "Cyberiadą", "Przyjacielem", opowiadaniami o Pirxie, "Golemem XIV", "Non serviam", Clarke'a z "Odysejami kosmicznymi" i perspektywą zarysowaną w "Spotkaniu z meduzą". Wymienić też trzeba cyberpunkowców, zwłaszcza W. Gibsona z jego Trylogią Ciągu i G. Egana, którego bohaterami są transludzie - sztuczne inteligencje, które kiedyś były... ludźmi...

Ogólnie jednak daje się zauważyć ciekawy podział wynikający z narastania w SF tradycji różnych epok - z jednej strony mamy zwykle zacne (choć nie zawsze - vide replikanci w "Blade Runnerze" i złowieszczy Ash w "Alienie") człekokształte roboty vel androidy (dziedzictwo czasów Asimova), z drugiej bardziej groźne całkiem nieludzkie sztuczne inteligencje (dziedzicwo cyberpunku i... "Odysei kosmicznej"). Zabawnie widać to np. w "Hyperionie" Simmonsa gdzie z jednej strony mamy wredne, zjednoczone w TechnoCentrum SI, z drugiej zacne "asimovowskie" z ducha roboty z A. Bettikiem na czele...
Q__
Moderator
#2 - Wysłana: 18 Lip 2006 21:25:54
Odpowiedz 
Wspominająśac o ważnych przedstawieniach motywu AI (vel SI) w SF zaniedbałem troszkę film. A jest co wymieniać: planujący zagładę ludzkości SkyNet (klasyczna zła AI) i jego "słudzy" - Terminatory, SID 6.7 (z "Virtuosity") wytworzony przez ludzi jako "idealny zabókca" i postępujący zgodnie z tym co mu wpojono, niewolące ludzi maszyny z "Matrixa", klasyczny - ślepo posłuszny Robbie z "Forbidden planet", para komicznych droidów z SW, dziewczyna-robot z archaicznego "Metropolis", Puppet Master z "Ghost in the Shell"...
Christof
Użytkownik
#3 - Wysłana: 18 Lip 2006 21:54:54
Odpowiedz 
Mieliśmy jeszcze replikantów w SAAB. Dość ciekawy przypadek.
W "Odysei ..." mamy jedynie HAL'a. Wprawdzie w pierwszej książce jest mowa o kilku innych komputerach serii HAL, a w 2010 pojawia się SAL 9000, ale są to jedynie epizody.
Q__
Moderator
#4 - Wysłana: 18 Lip 2006 22:24:02
Odpowiedz 
W "Odysei ..." mamy jedynie HAL'a

Jedynie? To jedna z najbardziej znanych i najciekawszych postaci AI w dziejach SF.

Mieliśmy jeszcze replikantów w SAAB.

Silikantów... Owszem byli niezwykle ciekawymi postaciami. Dziękuję za przypomnienie...
Alek Roj
Użytkownik
#5 - Wysłana: 18 Lip 2006 22:36:01
Odpowiedz 
A poza AI są jeszcze twory "hybrydowe" - maszyny ożywione przez transpozycję ludzkiej psychiki.
O "Szansie śmierci" Fiałkowskiego mówiliśmy już gdzie indziej: psychika naukowca zostaje skopiowana do pamięci komputera kierującego statkiem kosmicznym; tym sposobem Profesor (a raczej jego mnemokopia) staje się "duszą" jednostki latającej. Do złudzenia podobny pomysł (ciekawe, czy Fiałkowski był tłumaczony na angielski?) powraca we wspomnianym już również odcinku S1999 "The Infernal Machine". No i... V'ger też chyba staje się podobną "hybrydą", gdy jego "duszą" zostaje Decker. "Przyjaciel" Lema to też coś w tym guście.
Pytanie, czy takie hybrydy można zaliczyć w poczet Sztucznych Inteligencji? Moim zdaniem nie - to naturalne inteligencje w sztucznym "ciele".
Q__
Moderator
#6 - Wysłana: 18 Lip 2006 22:45:30
Odpowiedz 
Alek Roj

maszyny ożywione przez transpozycję ludzkiej psychiki.

Pisałem o tym powyźej w kontekście twórczości Egana...

Moim zdaniem nie - to naturalne inteligencje w sztucznym "ciele".

Postcyberpunkowcy ukuli na to świetny termin "postludzie" wzgl. "transludzie". (Więcej pisałem o tym w topicach "Cyperpunk i postcyberpunk" oraz "Transhumanizm".)
Tuki Anvareth
Anonimowy
#7 - Wysłana: 18 Lip 2006 23:04:33
Odpowiedz 
No nie zapominaj o slicznej Andromedzie

Ale masz racje - w SF sa dwa nurty: jeden przedstawia AI jako zagrozenie, drugi jako uzupelnienie czynnika ludzkiego.

Na ten pierwszy ludzie sa mocno uczuleni, wiec wszelkie prace w kierunku samoistniejacych AI beda torpedowane - a bez zaangazowania najwiekszych osrodkow naukowych na swiecie w te zagadnienie nie ma szans, ze jakis domorosly mechanik stworzy androida. Drugi nurt jest bardziej prawdopodobny - owszem lubimy sporo rzeczy zrzucac na maszyny, szczegolnie tam, gdzie moga wyeliminowac w znaczacym stopniu mozliwosci popelnienia pomylki. Ale po pierwsze ludzie sa mimo wszystko nieufni i mina najprawdopodobniej stulecia nim zdecyduja sie zaufac bezgranicznie maszynie (o ile wogole), a po drugie nie wszedzie sie tak da.

Niedawno na Discovery byl program o lotniskowcu USS Ronald Regan, dosc znamienne sa slowa jednego z pilotow F-18 Super Hornet - "Mimo, ze Super Hornety sa naszpikowane elektronika ulatwiajaca pilotom lot i prowadzenie dzialan, do dzis czlowiek nie wymyslil nic do ulatwiloby im ladowanie na lotniskowcach. Posadzenie Super Horneta na lotniskowcu jest tak samo trudne jak posadzenie maszyny 50 lat temu.".

Osobiscie jesli chodzi o zagadnienie AI, wroze rozwoj najpierw komputerow i oprogramowania analizujacych ogromne ilosci danych i doradzajace czlowiekowi (jak to ma juz miejsce w helikopterach szturmowych - oprogramowanie po wykryciu opromieniowania maszyny przez radar badz wiazke laserowa wroga i odpalenie rakiety, doradza pilotowi sposob postepowania - odpalenie flar, badz manewry uchyleniowe).
Do tego prowadzone sa prace z wykorzystaniem sieci neuronowych - na zasadzie tworzenia oprogramowania ktore jest zdolne samodzielnie sie uczyc (jak to tlumaczyl nam wykladowca - oglednie polega to na tym, ze oprogramowanie zapamietuje reakcje czlowieka na dany problem, po czym stara sie powtorzyc ta reakcje, w momencie kiedy wprowadzone zostana te same dane - przy czym nie jest to idealne rozwiazanie, bowiem dane moga byc podobne, ale problem moze byc nieco inny - jak przy chorobie, objawy podobne, choroba inna). No ale prace nad takim oprogramowaniem wciaz postepuja.

Nim doczekamy sie AI w stylu Daty, Romi, C3PO czy R2D2 mina IMO stulecia. Nim ludzkosc nie dojdzie do etapu w ktorym okaza sie przydatne i potrzebne takie rozwiazania.

Poki co nie ma takich sytuacji - narazie wszystko co nam potrzebne jest w stanie wykonac komputer o odpowiedniej mocy obliczeniowej z odpowiednim oprogramowaniem, zdolny w ulamku sekund przeanalizowac gigantyczne ilosci danych i doradzic sposob postepowania.

Rozwoj robotyki w tym kierunku poki co raczkuje. Jak to podsumowano na Discovery (hmm ostatnio bardzo czesto powoluje sie na programy tam emitowane) jakis czas temu roboty byly na etapie jednokomorkowcow, obecnie sa na etapie owadow. Po tym porownaniu widac, jak dluga jeszcze droga przed nami.
Alek Roj
Użytkownik
#8 - Wysłana: 18 Lip 2006 23:30:53 - Edytowany przez: Alek Roj
Odpowiedz 
Zagrożenie ze strony AI przedstawiane jest zwykle w postaci buntu maszyny, bądź maszyn. Zdaje się, że jeszcze w okresie międzywojennym powstał film "Bunt robotów", który znam jedynie ze słyszenia. BSG - to tylko najnowsze wcielenie tej wizji. Rzadziej pojawia się maszyna, która zabija z rozkazu człowieka: "Maska" Lema, pierwszy "Terminator"... Połączeniem tych 2 pomysłów były "Wrzaskuny" ("The Screamers").

Nie doceniany przez fanów SF film Spielberga "Sztuczna Inteligencja" - choć może nie jest arcydziełem sztuki filmowej - stawia sprawę w sposób dość oryginalny. Seks "międzyludzki" jest stopniowo wypierany przez seks z maszyną, a żywe potomstwo przez sztuczne - w złowieszczej scenie widzimy "armię" mechanicznych dzieci czekających na wysyłkę. I - paradoksalnie - maszyny rzeczywiście najdosłowniej stają się potomstwem ludzi, przejmując po nich sukcesję i kontynuując historię ziemskiej cywilizacji.
Tuki Anvareth
Anonimowy
#9 - Wysłana: 19 Lip 2006 00:23:19
Odpowiedz 
Nie tyle buntu, co wymkniecia sie spod kontroli. Zagrozeniem nie musi byc swiadomy bunt maszyn (a'la bunt niewolnikow), ale zwyczajny (czasem banalny) blad w oprogramowaniu, ktory z maszyny majacej chronic czlowieka, staje sie zagrozeniem. Wbrew pozorom, takie proste bledy zdarzaja sie najczesciej - kazdy kto choc troche liznal jezyki programowania mial napewno sytuacje, gdzie glupi blad w formule powoduje serie blednych wynikow - to jak w matematyce - zle postawiony nawias potrafi diametralnie zmienic rownanie.
Q__
Moderator
#10 - Wysłana: 19 Lip 2006 00:28:19
Odpowiedz 
Tuki Anvareth

No nie zapominaj o slicznej Andromedzie

Jak dla mnie jest juź nazbyt ludzka w zachowaniach, a AI to ma być AI...

Na ten pierwszy ludzie sa mocno uczuleni, wiec wszelkie prace w kierunku samoistniejacych AI beda torpedowane

Możliwy jest też scenariusz z "Blade Runnera" - sprzeczne dążenie z jednej strony do ciągłego rozwoju Sztucznych Inteligencji (zwanych tam replikantami) z drugiej zaś trzymanie ich w (nazywając rzeczy po imieniu) brutalnej niewoli i programowanie im autodestrukcji by nie rozwineły się zbytnio i nie zaszkodziły twórcom...

Piszesz też o rozwoju maszyn, że tak powiem "bezdusznych", systemów rozwiniętych lecz nie samoświadomych... Bylo takie ciekawe (nietypowe jak na ten zbiór) opowiadanie w tomiku "Ja, robot" o takich nie-samoświadomych, ale skutecznych w działaniu maszynach, którym powierzono kierowanie wielkimi firmami i które bezwzględnie wyeliminowały czynnik ludzki z zarządzania firmami. Nie, nie w imię buntu maszyn, a dla realizacji zaprogramowanego im celu - optymalnie skutecznego kierowania firmą (Lem który był czuły na temat ""niczyjego" rozumu, choć Asimova nie trawił, cenił to opowiadanie...)

Alek Roj

maszyny rzeczywiście najdosłowniej stają się potomstwem ludzi, przejmując po nich sukcesję i kontynuując historię ziemskiej cywilizacji.

To samo było w przywoływanym przeze mnie utowrze Egana. Tam pierwszym pokoleniem były ludzkie umysły przeniesione w "ciala" maszyn, natomiast ich "potomstwo" mimo psychicznej "humanoidalności" było juz AI sensu stricte...

Zresztą wizję maszyn jako potomstaw ludzi przedstawiał też Marvin Minsky, najbardziej chyba entuzjastyczny badacz AI w artykule "Nie bedzie nas, bedą roboty" w "Scientific American". (Nb. Minsky jest też autorem napisanej wspólnie z Harrym Harrisonem powieści SF zatytułowanej "Opcja Turinga". Bohaterem głównym jest MI czyli mówiąc "po staremu" robot.)
Q__
Moderator
#11 - Wysłana: 19 Lip 2006 00:41:07
Odpowiedz 
Tuki Anvareth

Znów bedą dwa moje posty pod rząd, ale bywa tak, ze zanim odpiszę na jeden pojawia się drugi..

Watek takiego "buntu bez buntu" mamy w przywoływanym przez mnie opowiadaniu Asimova. Mamy w "Odysei kosmicznej" gdzie HAL (co wyjaśnia się w 2010) "zwiariował" od sprzecznych danych... Mamy też w SAAB, gdzie skłócony z władzami koncernu prdukującego silikantów naukowiec na złość szefom wszczepia swym tworom wolną wolę, która w przeciwieństwie do ludzkiej, kierującej się biologicznymi popędami kieruje się losowaniem wyboru którejś możliwych decyzji.

Zresztą wątek wszechobecnych (ale nie sięgających poziomu samoświadomej AI) mamy w IMHO genialnym "Runaway" - filmie Michaela Crichtona wyswietlanym u nas jako "Pająki śmierci".

Zresztą nawet bardziej "osobowe" AI mogą być "złe" z winy twórców przykładem tu programowany do prowadzenia wojny SkyNet z "Terminatorów" i wspomniany SID 6.7.

Teraz z zupełnie innej beczki. Niewątpliwie najbawniejszą (i najmniej prawdopodobną) wizję całego wirtualnego świata pełnego AI (zwanych tu "staroświecko" programami) przedstawia pamiętny "TRON":


Tuki Anvareth
Anonimowy
#12 - Wysłana: 19 Lip 2006 00:42:36
Odpowiedz 
Q

Jak dla mnie jest juź nazbyt ludzka w zachowaniach, a AI to ma być AI...

Nie byla taka zbyt ludzka - po pewnym czasie dopiero (na poczatku byla poprostu AI zintegrowanym z okretem) stala sie tym, czym Data chcial sie stac. Nauczyla sie emocji - nie posilkujac sie przy tym stosownym procesorem - co daje jej przewage nad Data. Takze w kwestii zastosowania Romi byla bardziej zaawansowana od Daty.

Jak dla mnie Andromeda jest tym ostatecznym efektem rozwoju AI. Posluszna rozkazom dowodcy okretu, choc i w tym zdarzaly sie wpadki (pamietam odcinek w ktorym zabezpieczenia Harpera narobily niezlego balaganu), mogla sluzyc jako doradca - ze swoja mozliwoscia szybkiej analizy gigantycznych ilosci danych, zintegrowana z systemami okretu (w koncu AI w Andromedzie byly integralnymi czesciami okretow Federacji), a jednoczesnie z czasem potrafila zblizyc sie ku czlowieczenstwu i doswiadczala tego czym sa emocje - co jednak nie spowodowalo konfliktow na linii emocje - zadania stawiane AI.
The_D
Użytkownik
#13 - Wysłana: 19 Lip 2006 00:53:54
Odpowiedz 
"Wrzaskuny" ("The Screamers").

W TV jest czasem puszczany pod tytułem "Tajemnica Syriusza"

Jeżeli mówimy o filmowych AI, to warto wspomnieć o serii filmów o Obcym - mamy tam zarówno dobrych jak i złych, a w 1., 2. i 4. filmie mają niebanalny wpływ na bieg wydarzeń.

Natomiast obecny stan badań nad SI dobrze podsumował Q. To co potrafi ona dzisiaj dzielą lata świetlne nawet od możliwości komputera pokładowego Enterprise. Jak na razie problemem jest samo rozpoznawanie głosu, zaś rozumienie sensu jest zupełnie poza zasięgiem.

Nie zgadzam się natomiast ze stwierdzeniem:

narazie wszystko co nam potrzebne jest w stanie wykonac komputer o odpowiedniej mocy obliczeniowej z odpowiednim oprogramowaniem

Co prawda w wielu dziedzinach komputerowe inteligencje sprawują się zadowalająco (niektóre gry, np. szachy, plany lekcji, rozkłady lotów, rozpoznawanie odręcznie pisanych cyfr, nawet projektowanie układów scalonych) to ciągle pozostają ogromne obszary, w których wprowadzenie SI nie udaje się mimo prób, jak np. wspominane już rozumienie mowy, sterowanie pojazdami w terenie, automatyczne dowodzenie twierdzeń i wiele innych.
Alek Roj
Użytkownik
#14 - Wysłana: 19 Lip 2006 00:56:20 - Edytowany przez: Alek Roj
Odpowiedz 
Dobrym przykładem "wymknięcia się spod kontroli" są Wrzaskuny, a także... Borg. A maszyny jako "potomstwo" ludzi - to także Lem.

U Spielberga/Kubricka uderzyło mnie coś jeszcze: Ludzie są w "A.I." pokazani jako przerażająco dekadenccy, i to bez widoków na odrodzenie duchowe czy jakiekolwiek inne (jedyną alternatywą dla hedonistycznej bierności są fanatycy bez programu pozytywnego). Natomiast maszyny - będąc obiektem "polowań" - muszą rozwijać swój instynkt przetrwania i de facto sprawiają wrażenie bardziej ludzkich od ludzi.
MOJA INTERPRETACJA:
Ludzie giną (jak rozumiem) z własnej winy. Przestali się rozmnażać, lub/i - pozbawieni woli przetrwania i rozwoju - nie sprostali wyzwaniu w postaci ochłodzenia klimatu. A maszyny (jak rozumiem) dały sobie radę, bo im jeszcze na czymś zależało. Jak Davidowi, zresztą też maszynie.
Q__
Moderator
#15 - Wysłana: 19 Lip 2006 00:58:38
Odpowiedz 
Tuki Anvareth

Jako stary technofil powiem szczerze: nie jestem pewien czy to co Ty wymieniasz jako zalet AI jest dla mnie także zaletami. Po pierwsze jako wierny czytelnik cyberpunkowych i postcyberpunkowych nie uważa, wcale by AI miały się stawać coraz bardziej ludzkie, uważam raczej, że to my powinniśmy ewoluować do ich poziomu... Uważam też, że ludzkie emocje (będące częścia ludzkiego dziedzictwa biologicznego) dla AI będą na nic...

Bezwzględne posłuszenstwo AI człowiekowi też niezbyt mi się podoba, uważam że myślace maszyny powinny nam być nie sługami, a prartnerami... Zresztą rozwinięty maszynowy intelekt zwasze znajdzie sposób by obejść swe wpojone przez ludzi uwarunkowania (był tego swiadom nawet I. Asimov - twórca słynnych Praw Robotyki, co widać w jego twórczości).
The_D
Użytkownik
#16 - Wysłana: 19 Lip 2006 01:04:54
Odpowiedz 
Połączeniem tych 2 pomysłów były "Wrzaskuny" ("The Screamers").

Puszczany czasem w TV pod tytułem "Tejemnica Syriusza"

Niewątpliwie najbawniejszą (i najmniej prawdopodobną) wizję całego wirtualnego świata pełnego AI (zwanych tu "staroświecko" programami) przedstawia pamiętny "TRON":


Dzisiaj TRON może śmieszyć, ale nie zapominajmy, że powstał on 17 lat przed Matriksem. Była to jedna z pierwszych prób pokazania VR na dużym ekranie,
Anonim
Anonimowy
#17 - Wysłana: 19 Lip 2006 01:06:18
Odpowiedz 
Tak, ja rowniez twierdze, ze Andromeda to po prostu stadium rozwoju AI wyzsze niz to, ktore mial Data (szczegolnie na poczatku). Ludzkie emocje...? Az takie negatywne i niepotrzebne AI? Hmm, a jednak ewolucja w jakims celu nas w nie wyposazyla! Ba - prawdopodobnie wiele innych zwierzat rowniez! Powiedzialbym, ze sprawdzaja sie calkiem dobrze. Mimo iz nizsze stadia rozwoju (np. takie muchy ) ich nie posiadaja. Kazdy, kto mial kiedys psa wie, ze zwierzeta te moga byc smutne, zaniepokojone, czy wesole. A co jest bardziej zaawansowanym organizmem - pies, czy mucha - to chyba nie ulega watpliwosci.

To jest jedna rzecz. Kolejna rzecz to interfejs. Uczucia, albo chociaz ich symulowanie - ton glosu, mimika, gestykulacja - sa bardzo wazne w komunikacji z ludzmi. Wypowiadane slowa maja tylko 20% wklad w to, jak inni postrzegaja nasze wiadomosci. 80% to cala reszta - mowa ciala. Skoro ludzie posluguja sie takim wlasnie, byc moze niejednoznacznym, byc moze trudnym do odwzorowania przez maszyne, sposobem komunikacji, to czemu nie dazyc do opanowania go przez AI? Mysle, ze uczucia i "ludzkosc" Andromedy pelni wazna role w jej komunikacji z zaloga. Zreszta wystarczy sobie przypomniec "starego" Datę z TNG (GEN!).

No i jest jeszcze jedna sprawa, poruszona w jednym z odcinkow Andromedy: czy naprawde chcielibysmy pozbawic okrety uczuc? Wyzbyc je z lojalnosci, opiekunczosci, odwagi, poswiecenia...? Mi dalo to troche do myslenia .

/Sh1eldeR
Q__
Moderator
#18 - Wysłana: 19 Lip 2006 01:12:31 - Edytowany przez: Q__
Odpowiedz 
The_D

"Wrzaskuny" ("The Screamers").
W TV jest czasem puszczany pod tytułem "Tajemnica Syriusza"


W kinach też szedł pod tytułem "Tajemnica Syriusza"

Jeżeli mówimy o filmowych AI, to warto wspomnieć o serii filmów o Obcym - mamy tam zarówno dobrych jak i złych, a w 1., 2. i 4. filmie mają niebanalny wpływ na bieg wydarzeń.

Tak, androidy z cyklu "Alen" to jedna z najlepszych (i IMHO najwiarygodniejszych) kreacji AI w SF.

Co prawda w wielu dziedzinach komputerowe inteligencje sprawują się zadowalająco (niektóre gry, np. szachy, plany lekcji, rozkłady lotów, rozpoznawanie odręcznie pisanych cyfr, nawet projektowanie układów scalonych) to ciągle pozostają ogromne obszary, w których wprowadzenie SI nie udaje się mimo prób, jak np. wspominane już rozumienie mowy, sterowanie pojazdami w terenie, automatyczne dowodzenie twierdzeń i wiele innych.

Smutna prawda. Scenariusz z "Runaway" mamy tak naprawdę "tuż za progiem", do prawdziwej AI raczej daleko.

Alek Roj

A maszyny jako "potomstwo" ludzi - to także Lem.

Prawda, są jednak u niego potomstwem zbuntowanym...

U Spielberga/Kubricka uderzyło mnie coś jeszcze: Ludzie są w "A.I." pokazani jako przerażająco dekadenccy

Nie tylko u nich. W "Człowieku przyszłości", ekranizacji opowiadania Asimova głowny bohater, robot jest bardziej ludzki (dla mnie to, jak pisałem, nie zaleta) i sympatyczniejszy od większości ludzi wokół niego...

Dla odmiany w "Prawie gościnności" Wrighta, gdy w końcowej scenie Sztuczna Inteligencja przybyła incognito na okręt kosmicznej (nieco diunopodobnej) szlachty dokonuje eksterminacji w/w "szlachetnie urodzonych" kibicujemy jej, tak obrzydliwymi typami uprzednio się okazali...
Q__
Moderator
#19 - Wysłana: 19 Lip 2006 01:40:00 - Edytowany przez: Q__
Odpowiedz 
Sh1eldeR

Nie wiem co sobie o mnie pomyślisz, ale jednym z moich ulubionych opowiadań SF są "Maski" Damona Knighta (publikowane w "Drodze do science fiction"), których bohater, ofiara wypadku w wyniku cyborgizacji traci m.in. cały układ hormonalny (zdaniem autora odpowiedzialny za emocje) i w wyniku tego staje się zimnym, "maszynowym" psychopatą (cokolwiek podnym do wspominanego Asha oraz Caldera z "Rozprawy" Lema, choć oni byli 100% maszynami, on zaś nie). Dziwnie to zabrzmi, ale zazdrościłem tej postaci wolności od biologicznych uwarunkowań, podobnie jak imponował mi swym chłodem (nie przejawiający groźnych zachowań) Golem XIV...

Nie lekceważę Twoich argumentów o ewolucyjnej przydatności emocji, ale jako wyznawca poglądu o konieczności autoewolucji uważam, że to, w co wyposażyła nas natura, mamy prawo zmieniać po swojemu... Parafrazujac Lema: Precz z naturą, wiwat autokreacja!"

(Znów dałem dwa posty pod rząd, to efekt tego, że inni piszą w tym samym czasie co ja i widząc swoją wypowiedż na Forum, widzę często, że gdy pisałem Ktoś mnie wyprzedził i napisał coś do czego byłbym skłonny się ustosunkować.)
Anonim
Anonimowy
#20 - Wysłana: 19 Lip 2006 01:50:06
Odpowiedz 
Jeszcze slowo do Q, bo dopiero przeczytalem jego komentarz. Inni zreszta tez moga to przeczytac, bo przyszla mi na mysl dosc ciekawa rzecz.

Q, czyli uwazasz, ze emocje sa niedoskonale, tak? Zdajesz sobie jednoczesnie sprawe, ze wspolczesna SI (ja uzywam tego okreslenia jako poprawnego terminu; AI nie musi byc samoswiadoma, ani ludzka, ani superzaawansowana) - ze wspolczesna SI nie jest jeszcze doskonala i ze naprawde efektywna i niezawodna bedzie dopiero w przyszlosci. Gdy osiagnie pewne stadium zaawansowania.

Czy myslales jednak, jakie to bedzie stadium? Czy naprawde uwazasz, ze bedzie ono az tak podobne do tego, co - jak zdajesz sie myslec - reprezentuje wspolczesnie? Tylko ze algorytmy beda bardziej zaawansowane i ulepszone? Wydaje mi sie, ze gubisz jedna rzecz.

Zastanowmy sie. Wspolczesne systemy SI potrafia juz wysnuwac calkiem niezle wnioski w oparciu o ograniczony (choc zmieniajacy sie w czasie - zwykle: powiekszajacy sie) zbior danych i w jakiejs okreslonej dziedzinie. W przyszlosci chcielibysmy, by AI nie byly ograniczone do zadnej dziedziny. Maja byc wszechstronne, maja przetwarzac informacje niemal ze wszystkich mozliwych zrodel i rozwiazywac problemy wszelkiego rodzaju.

Studiowalem ostatnio troche SI i musze powiedziec, ze gdy chcemy zbudowac system mogacy rozwiazywac zyciowe problemy z szerokiego zakresu, zwykla, prosta logika i czysto logiczne wnioskowanie zerojedynkowe okazuja sie byc zbyt slabymi srodkami. Stosuje sie roznego rodzaju sieci i logike rozmyta, a takze szerek innych srodkow. Wyobraz sobie taka prosta sytuacje:

Okret wyposazony w AI jest po jakiejs bitwie i nagle wykrywa wroga jednostke. AI musi podjac prosta decyzje: walczyc, czy nie? Wynik jest typowo zerojedynkowy, ale sposob rozumowania... juz nie bardzo! AI musi ocenic swoj wlasny stan, uszkodzenia, pozycje, zapasy amunicji i szereg innych czynnikow. Musi tez spojrzec na parametry wroga - i te dokladne (i byc moze czesciowo przetworzone), ktore ma w bazie, dotyczace klasy wrogiej jednostki, i te aktualne, ktore musi sama wymyslic - np. pozycja wroga, jego widoczne uszkodzenia, fakt, czy jego skanery juz namierzyly cel i czy ma otwarte wyrzutnie. Czynnikow jest multum i nie da sie wyprowadzic relatywnie prostego wzoru matematycznego na to, czy mozna zaatakowac i wygrac ta bitwe, czy nie. Bo i tez zachowania wroga nie da sie przewidziec. Wiele rzeczy nalezy traktowac jako niedeterministyczne. Wielu rzeczom mozna przypisac tylko jakies prawdopodobienstwo. Wielu broni nie mozna ze soba bezposrednio porownac. Trzeba wyczuc sytuacje i sily obu stron!

Oto, o czym pisalem, Q: a jesli bedziemy rozwijac ta cala logiek rozmyta, wnioskowanie wprzod i wstecz oraz zgadywanie niektorych parametrow, jesli stworzymy cos na ksztalt sztucznej intuicji, to czy przypadkiem tej naszej nowej, hiperrozmytej logiki nie bedzie mozna nazwac logika uczuciowa? Zauwaz, ze uczucia moga miec rozna sile i w duzej czesci sa oparte na jakichs logicznych zdarzeniach i wnioskach! To one wlasnie moga opisywac nasze wnioski, do ktorych doszlismy na temat calkiem logicznych wywodow! Zobacz: idziesz sobie jakby nigdy nic po jakims zadupiu w Kongo i nagle widzisz tygrysa. Opierasz sie na dobrze okreslonych przeslankach: wiesz, ze tygrysy sa niebezpieczne, silne i szybkie. Widzisz, ze ten jest duzo wiekszy od ciebie. Ze ma potezne pazury oraz kly. Ze twoje cialo nie moze mu sprostac w walce. Wszystko to sprawia, ze... boisz sie. To jest wynik twojego wywodu - na tyle logicznego, ze - sam przyznasz - mogloby go przeprowadzic nawet wyzbyte uczuc AI! Jednak ten wynik, to uczucie, ma tez swoje wlasne implikacje: nie obracasz sie do zagrozenia tylem, w pierwszej chwili nawet nie uciekasz, bo nie chcesz go prowokowac. Adrenalina zwieksza sile twoich miesni i przygotowuje organizm do walki lub ucieczki. Ten rezultat znowu wydaje sie byc calkiem prostymi sygnalami, ktore moglyby sie pojawic na wyjsciu bezuczuciowej AI. Jednak w srodku tego rozumowania tkwi uczucie. To nam troche nie pasuje. Czy na pewno? A co by bylo, gdybys mial jeszcze przy sobie bron - rewolwer - i gdybys widzial, ze tygrys przed chwila zabija jakas znana ci osobe, oraz gdybys za druga reke prowadzil swoje dziecko? Priorytety troche by sie zmienily. Nowe elementy prowadzilby do powstania nowych uczuc. Sama bron, nie wiadomo przeciez na ile skuteczna, raczej nie sklonilaby cie do ataku. Jednak fakt, ze tygrys zabil juz jedna bliska ci osobe spowodowalby nowe uczucie: zlosc, chec zemsty. Kolejne uczucie, troska - o swoje dziecko - kazalaby ci mozliwie szybko i skutecznie zazegnac niebezpieczenstwo. Co zwyciezy? Ktore uczucie bedzie dominujace? Co zrobisz?

Najlepsze jest to, ze rowniez bezuczuciowa AI musialaby rozumowac podobnie. Zapewne obliczylaby sobie prawdopodobienstwo tego, ze atak za pomoca rewolweru okaze sie skuteczny, jak rowniez tego, ze tygrys zaatakuje gdy sie wycofamy i tego, ze nasze dziecko bedzie bezpieczne, oraz tego, ze tygrys zaatakuje pozniej kolejna wazna dla nas osobe.

A logika rozmyta oparta tylko na jednej wielkosci - prawdopodobienstwie - to najprostszy przypadek. Mozemy sobie wyobrazic, ze stan opisujacy przewidzenie konsekwencji lub chec podjecia jakiegos dzialania przyszle "bezduszne" AI beda opisywaly sobie w jeszcze bardziej skomplikowany sposob.

Czemu wiec tak boimy sie nazwac to uczuciami? Czyz nie jest tak, ze my ocene najblizszej przyszlosci i potrzebe podjecia danego dzialania nazywamy wlasnie w ten sposob?

Moze nie da sie lepiej, moze nie da sie logiczniej niz za pomoca uczuc? Zauwazmy, ze w zlozonych sytuacjach, takich jak starcie dwoch okretow, trudno jest zawsze podjac optymalna decyzje. Moze jestesmy faktycznie troche silniejsi od wroga, nasze uszkodzenia sa duzo mniejsze niz jego i wg wszelkich logicznych prawidel powinnismy zaatakowac. Ale co sie stanie, jak nagle nastapi jakas zupelnie przypadkowa, skrajnie malo prawdopodobna awaria? Np. pierwszy strzal wroga bedzie kompletnie farciarskki i obruszy do reszty nadwerezona w poprzedniej bitwie nakretke, przez co stracimy polowe mocy? Okaze sie, ze sie pomylilismy. Life is brutal.

Ktos powie: zaraz, ale przeciez mozna bylo to przewidziec. Mozna zdiagnozowac to, ze nakretka jest obruszona. Mozna obliczyc, ze prawdopodobienstwo, iz wrog trafi w ten sposob, zeby ja calkiem obruszyc, jest niezerowe - co prawda on nie moze wiedziec o nakretce, ale moze przypadkowo strzelic gdzies we wlasciwe miejsce. Ma na to 0.01% szans. Ale nie zero. Wiec trzeba bylo po prostu nie wdawac sie w bitwe!

A jednak... czy faktycznie ominiecie bitwy dajacej 99.99% szans na zwyciestwo to dobre rozwiazanie? . W 1 przypadku na 10000 tak. W pozostalych przypadkach nie.

Jak widac, nie wszystko jest deterministyczne i nie wszystko mozna przewidziec. Kazda AI popelni czasem jakis blad, gdy bedzie musiala podjac naprawde zlozona decyzje. Uczucia zas moga byc tylko wyzszym stadium rozwoju AI - nie jedna z drog, ale calkiem logicznym krokiem naprzod. Uczucia potrafia konkurowac ze soba, mieszac sie, wiazac, walczyc. Potrafia wspolgrac i ulatwiaja podejmowanie decyzji. Sa calkiem dobrym opisem stanu wewnetrznego i przewidywanych przyszlych wydarzen.

/Sh1eldeR
Q__
Moderator
#21 - Wysłana: 19 Lip 2006 02:06:58
Odpowiedz 
Sh1eldeR

Zgadzam się z Toba, że przyszłością badań nad (jak piszesz) AI. Jest tzw logika rozmyta czyli tzw. fuzzy logic.

Jako pasjonat fizyki kwantowej i modnej niedwano teorii chaosu jestem też świadomy, że wiele zjawisk ma charakter indeterministyczny...

Mimo to jednak, wydaje mi się, że w sytuacjach, w których na podstawie samych danych nie wiadomo jaką decyzję podjąć lepiej już kieować się jakimś losowaniem (szybkim, wewnętrznym procesem będącym odpowiednikiem znanego z SAAB rzucania monetą) niż niedoskonałymi emocjami a'la homo sap.

Podałeś też przykład: Okret wyposazony w AI jest po jakiejs bitwie i nagle wykrywa wroga jednostke. AI musi podjac prosta decyzje: walczyc, czy nie?

Czy nie uważasz, że stworzenia AI gotowej walczyć i ginąc za nas, ludzi, jest jakąś forma niewoli? Sami jesteśmy niewolnikami popędów jakie "zaprogramowała" nam ewolucja. Ty proponujesz by AI (zapewne przewyższajaca nas i możliwościami fizycznymi i intelektem) była niewolnikem "popedów" które zaprogramujemy jej my... I dziwić się potem czemu HAL wykończył ludzi...

(A najśmieszniejsze, że mój sprzciw przeciwko nadawaniu SI ludzkich uczuć ma charakter... uczuciowy...)
Anonim
Anonimowy
#22 - Wysłana: 19 Lip 2006 02:37:50
Odpowiedz 
Czy nie uważasz, że stworzenia AI gotowej walczyć i ginąc za nas, ludzi, jest jakąś forma niewoli?

Nie sadze, zebysmy juz dorosli do rozstrzygania takich sporow... W kazdym razie ja do tego nie doroslem. Zreszta zdaje sie, ze w swiecie Star Trek i ten aspekt stworzenia SI jest szeroko poruszony. Z jednej strony mamy Datę - naprawde ludzkiego androida. I jest on calkowicie wolnym... czlowiekiem, nie jest niewolnikiem (bylo to poruszane w wielu odcinkach, szczegolnie przypomina mi sie ten, w ktorym Riker byl zmuszony toczyc proces przeciwko Dacie wlasnie w tej sprawie). Z drugiej strony, przy tak duzym zaawansowaniu technologicznym Federacji, SI na okretach wydaje sie byc mocno - nasuwa sie wniosek: sztucznie - ograniczona. Rozwiazuje sporo problemow, ma wielka moc obliczeniowa, wielka pamiec i dostep do danych, jednak w zaden sposob nie probuje byc czlowiekiem, czy samodzielna istota (choc teraz mi sie przypomina, ze i o tym byl chyba jakis odcinek..). Zaloganci rozmawiaja z komputerem wylacznie w konkretnych sprawach, proszac o okreslone rzeczy. Moze ludzkosc uznala, ze tak bedzie lepiej?

Wiadomo przeciez, ze gdyby obdarzony swiadoma AI okret Floty sie wkurzyl na ludzi, moglby zrobic spore zamieszanie. Nawet zniszczyc nasza ojczysta planete. Albo zawiezc nas - np. nie broniac nas, gdy bysmy tego potrzebowali. (w SAAB cos podobnego dzieje sie w przypadku - "wyprodukowanych" przeciez - in vitro). Albo uznac nasze cele za glupie i niewarte wypelnienia.

Moze jednak byloby to inaczej. Moze tak, jak w Andromedzie. Moze ludzkosc nie jest taka glupia i miliony lat ewolucji oraz tysiace lat cywilizacji i historii miliardow ludzi pozwola nam byc jeden krok przed stworzonymi przez nas maszynami. Skad w ogole pewnosc, ze bedziemy w stanie stworzyc cos madrzejszego od samych siebie? Moc obliczeniowa i pamiec to jedno, jednak inteligencja to cos zupelnie innego!

Mozliwe przeciez, ze do momentu stworzenia prawdziwej samoswiadomej AI rozwiazemu juz problem jej niewolnictwa (poki co, niestety, nie rozwiazalismy jeszcze calkiem problemu niewolnictwa wsrod ludzi). Moze taka AI wcale nie bedzie czula sie niewolnikiem i nie bedzie miala ku temu podstaw! W pewnym sensie kazdy z nas jest zmuszany do robienia czegos. Tak jest we wszystkich znanych nam spolecznosciach - od mrowek poczawszy, na nas skonczywszy. Mozna olac cala wladze i uznac, ze obowiazki wobec ogolu czynia nas niewolnikami, nie placic podatkow, zyc poza systemem i robic co dusza zapragnie. Czy jednak to charakteryzuje superinteligentne istoty? Nie sadze! Samoposwiecenie na niektorych szczeblach i czesciowa rezygnacja z wolnosci na rzecz ogolu calkiem pasuja do wysokorozwinietych istot, nieprawdaz? Madry i szlachetny, idealny czlowiek wie, ze w kupie sila. Jednoczesnie nie chce byc pasozytem i chce cos wniesc do ogolu, skoro oczekuje tez czegos od niego w zamian. Taka symbioza to piekna rzecz. Podobnie jak szacunek do jednostek nieco mniej inteligentnych od nas (pycha przeciez nie zbliza nas do doskonalosci). Czemu wiec bardziej zaawansowana od nas AI nie moglaby myslec podobnie, a nawet pojsc jeszcze dalej? I wszystko by gralo.


/Sh1eldeR
Q__
Moderator
#23 - Wysłana: 19 Lip 2006 02:38:21 - Edytowany przez: Q__
Odpowiedz 
Trochę fotek znanych SI:

Data:

Ash:

Bishop:

Andromeda:

Terminator:

Locutus - jedna z dron Kolektywu Borg (który na zdjęciu by się nie zmieścił):

Andrew:

David z "A.I.":

Robbie:

Rachel z "Blade Runnera":

HAL 9000:

SID 6.7

Architekt, twórca Matrixa:

TRON:

"stary" Cylon:

R2D2 i C3PO:
Tuki Anvareth
Anonimowy
#24 - Wysłana: 19 Lip 2006 02:46:22
Odpowiedz 
Q

IMO uczucia u AI moga pomoc w podjeciu decyzji - jako dodatkowa zmienna, czyli w efekcie kolejny zbior danych pozwalajacy uscislic sytuacje.

W tej hipotetycznej sytuacji Sh1eldeR'a AI kierujac sie emocjami moze nie podjac walki, bo walka doprowadzilaby na przyklad do strat wsrod zalogi. Strat nieznacznych z punktu widzenia stricte taktycznego - ale znaczacych np. w odniesieniu do morale zalogi.
Morale z koleji wplywaja na jej skutecznosc - choc same wymykaja sie czystej matematycznej logice, ktora jako "bezduszna" maszyna AI by sie kierowala.

Pozatym emocje beda potrzebne AI do zrozumienia postepowania dowodcy okretu - ktory jako czlowiek kierowac sie bedzie takze czesciowo uczuciami. Ba sa sytuacje kiedy to uczucia biora gore nad logika i zadne logiczne wywody bezdusznego doradcy nic by nie pomogly - jesli AI ma wypelniac wlasciwie swoje zadanie, musi byc w stanie zrozumiec swojego dowodce, inaczej albo dojdzie do konfliktu, albo na wzor HAL'a AI zwyczajnie "zwariuje" od sprzecznych danych, ktore beda do niej naplywac.
Q__
Moderator
#25 - Wysłana: 19 Lip 2006 02:59:08 - Edytowany przez: Q__
Odpowiedz 
Tuki Anvareth

Pozatym emocje beda potrzebne AI do zrozumienia postepowania dowodcy
jesli AI ma wypelniac wlasciwie swoje zadanie

Skąd w Was przekonanie, że AI ma służyć ludziom? Ja widzę w AI raczej nową jakość, doskonalsze "dzieci", następców może nawet (oby nie) wrogów, ale nie słuzących człowieka. Sądzę, że samoucząca i mogaca dalej autoewoluować AI będzie w stanie bez trudu przewyższyć poziom intelektualny człowieka, więc nie sądzę,by nie zdołała się wtedy uwolnic od "wszczepionych" jej uwarunkowań. Sadzę, że jakiekolwiek próby robienia z AI niewolników, sług czy podwładnych skończą się tragicznie... ale dla ludzi...


Pozatym emocje beda potrzebne AI do zrozumienia postepowania dowodcy okretu - ktory jako czlowiek kierowac sie bedzie takze czesciowo uczuciami.

Nb. nie wydaje mi się by do zrozumienia emocji potrzebne było ich posiadanie, są one w sumie dość proste...
Tuki Anvareth
Anonimowy
#26 - Wysłana: 19 Lip 2006 03:19:59
Odpowiedz 
Q

Ja Cie przepraszam, ale czy np. oficer taktyczny/naukowy/dowolny inny na Enterprise sluzy dowodcy okretu? Czy moze raczej pelni okreslona funkcje na rzeczonej jednostce, a jednoczesnie jako wolny, inteligentny i samoswiadomy osobnik jest zobligowany do wykonywania rozkazow rzeczonego dowodcy.

Podobnie AI - beda mialy na okretach scisle okreslone funkcje i zadania do wykonaia, a z racji swoich mozliwosci analitycznych dodatkowo beda predysponowane do pelnienia roli doradcow dowodcy okretu i w tym momencie AI MUSI byc w stanie rozumiec postepowanie dowodcy, tak aby moc mu wlasciwie doradzic, badz wlasciwie wykonac rozkaz.

Ani ludzcy czlonkowie zalog, ani AI nie moga byc takimi "wolnymi elektronami" sluchajacymi dowodcy kiedy im sie podoba - bo w takim wypadku bez wzgledu czy jest to czlowiek, czy AI - ich obecnosc na okrecie zwyczajnie mija sie z celem, a przydatnosc oscyluje w okolicach zera.
Delta
Użytkownik
#27 - Wysłana: 19 Lip 2006 03:23:39 - Edytowany przez: Delta
Odpowiedz 
Q
Po pierwsze jako wierny czytelnik cyberpunkowych i postcyberpunkowych nie uważa, wcale by AI miały się stawać coraz bardziej ludzkie, uważam raczej, że to my powinniśmy ewoluować do ich poziomu...

Trochę kojarzy mi się to z Borg, a być droną to niezbyt miła perspektywa. Jak wyobrażasz sobię dorównanie człowieka do poziomu przyszłej sztucznej inteligencji? Bez wszczepianej w organizmy technologii (jak np. w przypadku Borg)nigdy nie dorównamy SI takim jak Rommie czy nawet Data. Przewyższać nas będą praktycznie pod każdym względem. I jeśli nie będziemy mieć możliwości zachowania jakiejś formy dominacji i kontroli nad nimi, to musimy się liczyć z tym, że kiedyś może powstać jakaś grupa SI, które będą wrogo nastawione do ludzi, lub będzie ona nas traktować jak ulepszeni genetycznie superludzie z Trekowych wojen eugenicznych traktowali zwykłych ludzi.
I nie chodzi mi tu by traktować SI jako swoją własność, fajnie by było gdyby można SI traktować jak to jest np. w przypadku Daty w TNG, ale pewne ograniczenie możliwości może uchronić nas przed SI takim jak Lore. Nie wiem czy to dobre porównanie, ale to tak jak w przypadku posiadania psa. Nikt zdrowy psychicznie nie będzie się nad nim znęcał i robił mu krzywdy, ale "łagodna kontrola" nad nim jest niezbędna, zarówno dla dobra otoczenia jak i samego psa.
Mimo naszej wiedzy i technologii nie wszystko będziemy w stanie zmienić tak jak będzie nam wygodnie. Nie zmienimy natury psa, jedyne co to możemy się postarać by jego i innych uchronić przed nią.

Co do emocji, to podoba mi się wypowiedź Sh1eldeR'a. Słusznie zauważył, że jeśli SI mają być tworzone na podobieństwo żywej istoty to niezbędna będzie im intuicja, inaczej nie wyjdą poza oprogramowanie i będą wykonywać tylko to co im każemy, a i to z ograniczeniem związanym z niemożnością pojmowania pewnych rzeczy z powodu zwykłego braku wyczucia sytuacji. W ten sposób swój limit możliwości, SI osiągnęłby na "wczesnym Dacie" a nie na kimś takim jak Rommie, która jest praktycznie równa ludziom (nie wspominając już o tym, że pod pewnymi względami ich przewyższa) i tak jest traktowana.

Czy nie uważasz, że stworzenia AI gotowej walczyć i ginąc za nas, ludzi, jest jakąś forma niewoli? Sami jesteśmy niewolnikami popędów jakie "zaprogramowała" nam ewolucja. Ty proponujesz by AI (zapewne przewyższajaca nas i możliwościami fizycznymi i intelektem) była niewolnikem "popedów" które zaprogramujemy jej my...

W pewnym sensie będzie to zniewolenie.
Ale ewolucja nie bez powodu "zaprogramowała" nam emocje, bez nich nie przeżylibyśmy już jako jaskiniowcy. To właśnie te emocje dają nam możliwość rozwoju i chronią nieraz przed zgubą. I pomimo nowoczesnej technologii tak jest nadal i myślę, że będzie tak w przyszłości. Jeśli SI ma nam, co najmniej, dorównać i przetrwać bez opieki, to musi być w nie wyposażona.
Mogło to by być tak jak w przypadku Wolkan.
W TNG: Unification Spock mówi do Daty, że Wolkanie całe życie poświęcają by osiągnąć to, co zapewnia androidowi konstrukcja. Kontrolowane na "chłodno" emocje byłyby może niezłym rozwiązaniem. Zresztą jeśli SI naprawdę dorównają lub przewyższą ludzi to czy nie będzie to już "nowy gatunek"? Wtedy wyjścia mogą być dwa:
1. Albo my zniszczymy albo SI zniszczą nas.
2. Będziemy mogli ich traktować jako sojusznika i wtedy problem kontroli nad nimi sam się rozwiąże (wtedy nawet walka ze wspólnym wrogiem chyba nie będzie mogła być porównana do niewolnictwa).

Edycja:
I co do uczuć SI. Pamiętasz może taki film "War Games"? Gdzie armia USA miała superkomputer do którego włamał się jakiś chłopak i mało co nie rozpętał wojny nuklearnej, bo komp miał kontrolę nad amerykańskimi rakietami? Pewnie widziałeś i pamiętasz zakończenie. Komputer w ostatniej chwili przerwał odliczanie do startu rakiet, bo uczył się na błędach i z pomocą ludzi doszedł do wniosku, że nie da się wygrać nuklearnej wojny, więc lepiej jej nie zaczynać. I to jest coś w rodzaju intuicji, która będzie niezbedna SI. Gdyby ten komputer dalej "na chłodno" robił to, co mu zaprogramowano, to świat czekałaby zagłada, pomimo tego, że się w miarę przeprowadzania kolejnych symulacji ataku i kontrataków poprawiał swe błędy, brakowało mu intuicji by zrozumieć, że i tak przegra konflikt.
Q__
Moderator
#28 - Wysłana: 19 Lip 2006 03:36:38 - Edytowany przez: Q__
Odpowiedz 
Tuki Anvareth

Widze, że mówisz tu wyłącznie o AI w realiach ST/"Andromedy"... Ja mówiłem raczej o ich powstaniu w ogóle... Dlatego też nie rozumiem Twojego ograniczenia roli AI do funkcji "mózgu" statku kosmicznego

Delta

Bez wszczepianej w organizmy technologii (jak np. w przypadku Borg)nigdy nie dorównamy SI takim jak Rommie czy nawet Data.

Ależ właśnie jako wierny czytelnik cyberpunkowych i postcyberpunkowych książek, uważam, że rozmaite cyborgizacje, a z czasem wręcz przeniesienie ludzkich umysłow do maszynowych ciał nie ograniczonych wymogami biologii będzie naturalnym dalszym etapem ewolucji ludzkości (przypomniam, że ten topic nie ogranicza się do swiata ST) i krokiem w kierunku osiągnięcia potęgi na modłę Q.

Zresztą jeśli SI naprawdę dorównają lub przewyższą ludzi to czy nie będzie to już "nowy gatunek"?

Oczywiście, że tak ale stając się autoewoluujacymi "duchami" w autoewoluujących maszynach mamy szansę się do tego nowego gatunku załapać...

Uwielbiam ST, uwielbiam ideały Federacji, ale jej uparte trwanie przy tradycyjnym, biologicznym, kształcie ludzi wydaje mi się chwilami przerażająco konserwatywne...

Pamiętasz może taki film "War Games"?

Film oczywiście znam i pamiętam, ale zdolność uczenia się na błędach mam za element chłodnej logiki (i zdolności autoewoluowania) nie zaś emocji...
Delta
Użytkownik
#29 - Wysłana: 19 Lip 2006 03:58:14 - Edytowany przez: Delta
Odpowiedz 
Film oczywiście znam i pamiętam, ale zdolność uczenia się na błędach mam za element chłodnej logiki (i zdolności autoewoluowania) nie zaś emocji...

Ale właśnie o wykazanie różnicy w rozumowaniu emocjonalnego i nie-emocjonalnego SI mi chodzi. Póki komputer uczył się na błędach bo to mu zaprogramowano, nie mógł pojąć, że przegra choćby nie wiem co zrobił, czyli sama chłodna kalkulacja i poprawianie błędów nie wystarczyły. Musiał wyjść po za to, intuicja pozwoliła mu na myślenie typu "co by było, gdyby..." i dopiero wtedy znalazł rozwiązanie. Bez tego, w kółko udoskonalałby schemat ataku. Wiem, że cenisz TMP, V'Ger jest podobnym przypadkiem. Sama chłodna logika mu nie wystarczyła. Widział dużo ale nie pojmował prostych rzeczy. Czego przykładem jesteśmy np. my: dochodzimy do wniosku że SI trzeba będzie traktować jak równego sobie, ale chłodny V'Ger uważał że "jednostki węglowe nie są żywe", bo różnił się od nas brakiem emocji, nie mógł sam wyjść poza schemat karzący mu zbierać same suche fakty. Uznał za fakt, że ludzie nie są naprawdę żywi i koniec, nic nie było go w stanie przekonać, że jest inaczej.

Ależ właśnie jako wierny czytelnik cyberpunkowych i postcyberpunkowych książek, uważam, że rozmaite cyborgizacje, a z czasem wręcz przeniesienie ludzkich umysłow do maszynowych ciał nie ograniczonych wymogami biologii będzie naturalnym dalszym etapem ewolucji ludzkości
A czy te maszynowe ciała nie narzucą nam po prostu innych ograniczeń niż biologia obecnie? Może się okazać, że uwięzimy się tylko w innej formie niż teraz jesteśmy.

Oczywiście, że tak ale stając się autoewoluujacymi "duchami" w autoewoluujących maszynach mamy szansę się do tego nowego gatunku załapać...
Uwielbiam ST, uwielbiam ideały Federacji, ale jej uparte trwanie przy tradycyjnym, biologicznym, kształcie ludzi wydaje mi się chwilami przerażająco konserwatywne...


Cóż, osobiście wolałbym, by zmiany były bardziej na podłożu genetycznym niż miałyby polegać na wszczepianiu implantów. Zresztą, jeśli mamy być podobni do Q, to znaczy, że cybertechnologia albo nie będzie nam potrzebna, albo będzie tylko pewnym krótkim etapem na drodze do bezcielesnego bytu.
Q__
Moderator
#30 - Wysłana: 19 Lip 2006 04:23:00
Odpowiedz 
Delta

W myśleniu intuicyjnym, zdolności do zmiany schematu myslenia itd. widzę owszem umiejętnosć stosowania w/w "fuzzy logic", widzę też wyjście poza właściwe obecnym komputerom "myślenie" prostymi, sztywnymi algorytmami... I owszem uwaźam, że cechy te są AI "z prawdziwego zdarzenia" niezbędne... Wciąż jednak nie widze by miało to mieć jakikolwiek związek z emocjami...

nic nie było go w stanie przekonać, że jest inaczej.

To zdanie kojarzy mi sie nawet bardziej niź z V'Gerem z ludźmi, których emocje zaślepiają...

jeśli mamy być podobni do Q, to znaczy, że cybertechnologia albo nie będzie nam potrzebna, albo będzie tylko pewnym krótkim etapem na drodze do bezcielesnego bytu.

Raczej będzie potrzebnia, lecz owszem będzie etapem przejściowym (taką mam nadzieję). Choć ostatecznie bycie rozumną, nieśmiertelną maszyną też możew mieć swój urok...

Cóż, osobiście wolałbym, by zmiany były bardziej na podłożu genetycznym

Paradoksalnie inzynieria genetyczna może być trudniejsza do opanowania więcej o tym w TYM topicu:
http://www.startrek.pl/forum/index.php?action=vthr ead&forum=8&topic=1192
 Strona:  1  2  3  »» 
USS Phoenix forum / Science-Fiction / Sztuczna Inteligencja w ST i reszcie SF

Twoja wypowiedź
Styl pogrubiony  Styl pochylony  Obraz Łącza  URL Łącza  :) ;) :-p :-( Więcej emotikon...  Wyłącz emotikony

» Login  » Hasło 
Tylko zarejestrowani użytkownicy mogą tutaj pisać. Zaloguj się przed napisaniem wiadomości albo zarejstruj najpierw.
 
Wygenerowane przez miniBB®


© Copyright 2001-2009 by USS Phoenix Team.   Dołącz sidebar Mozilli.   Konfiguruj wygląd.
Część materiałów na tej stronie pochodzi z oryginalnego serwisu USS Solaris za wiedzą i zgodą autorów.
Star Trek, Star Trek The Next Generation, Deep Space Nine, Voyager oraz Enterprise to zastrzeżone znaki towarowe Paramount Pictures.

Pobierz Firefoksa!