Data: 2010-01-30 16:42:22
Temat: Re: Komputer i decyzje
Od: "Chiron" <c...@...pl>
Pokaż wszystkie nagłówki
Użytkownik "Robakks" <R...@g...pl> napisał w wiadomości
news:hk1k8g$9q2$1@inews.gazeta.pl...
> "Chiron" <c...@...pl>
> news:hk1io0$o0b$1@news.task.gda.pl...
> > "Robakks" <R...@g...pl>
> > news:hk1atm$56g$1@inews.gazeta.pl...
> >> "Chiron" <c...@...pl>
> >> news:hk19hr$djc$1@news.task.gda.pl...
> >> > "tren R" <t...@n...sieciowy>
> >> > news:199p3hbwyiolt$.dlg@trenerowa.karma...
> >> >> A był to 30-styczeń-10, gdy Maciej Woźniak wymamrotał:
> >> >> > Użytkownik "tren R" <t...@n...sieciowy> napisał w
> > wiadomości
> >>
> >> >> >>>>> Nie. Ale niektóre może podejmować niechcący.
> >> >> >>>>
> >> >> >>>> w jakim sensie "niechcący"?
> >> >> >>>
> >> >> >>> W takim, że nie chce, ale podejmuje.
> >> >> >>
> >> >> >> maszyna?
> >> >> >
> >> >> > Maszyna.
> >> >>
> >> >> maszyna nie ma czegoś takiego jak "chęć".
> >>
> >> > Oczywiście- i dlatego maszyna niezda testu Turinga. Znasz to
> >> > zagadnienie?
> >> >
> >> > serdecznie pozdrawiam
> >> >
> >> > Chiron
> >>
> >> Jeśli maszyna nie zda testu Turinga, to człowiek tym bardziej,
> >> wszak test ten to ocena:
> >> czy autorem informacji jest maszyna mechaniczna, maszyna
> >> biologiczna, czy ślepy TRAF. ;)
> >> Edward Robak* z Nowej Huty
> >> ~>°<~
> >> miłośnik mądrości i nie tylko :)
>
> > IMO tu skrótowo i przystepnie omówiono test.
> > http://www.zgapa.pl/zgapedia/Test_Turinga.html
>
> Piszą dokładnie to samo co ja powyżej :-)
Nie. Nie ma tam o robotach biologicznych. Nie tylko- ale to najważniejsze.
Bo_to_są_ludzie_nie_roboty. Autor IMO rozróżnia to. Ty- nie.
> > W czasach, kiedy wymyślano cybernetykę- angażowano np psychologów,
lekarzy,
> > aby budowali modele zachowań ludzkich tak uproszczone, żeby można było
użyć
> > je do konstrukcji maszyn (a także modele chodzenia, nawet sposobu
poruszania
> > się ludzi oraz całkiem rozbudowaną teorię społeczności i społeczeństw).
> > Cybernetyka więc tworzyła modele na podstawie ludzkich zachowań. Później
IMO
> > zaczął się w świadomości ludzkiej dziwny dość etap. Otóż mając już mocno
> > rozbudowaną cybernetykę (która zaczęła teraz żyć własnym życiem),
zaczęto na
> > jej gruncie tłumaczyć zachowania zarówno pojedyńczych ludzi, jak i
całych
> > społeczeństw- czyli całkiem odwrócono to, co było do tej pory.
Podkreślę; O
> > d w r ó c o n o. I takie "na opak" zaczęło kształtować mentalność ludzi
> > naszej cywilizacji. Inżynierowie, spece od AI zaczęli tworzyć boty,
które są
> > w stanie same się "uczyć", a także "podejmować decyzję". Na przykład:
> > programista ustalił kryteria "nauki", i napisał bota tak, żeby ten mógł
się
> > "uczyć"- np korzystać z baz danych, które można uznać za zaufane
> > jednocześnie dając swojej maszynie program do określania, co to jest
zaufane
> > źródło danych. Mając kilka możliwości do wyboru, programista napisał
> > algorytm, którą ma bot wybrać- a np w razie ich podobnej wielkości
> > prawdopodobieństwa- wylosować rozwiązanie. I to nazwano "podejmowaniem
> > decyzji".
> > Takie małe "myk", rozumiesz? Pojęcie "uczę się" oraz "podejmuję decyzję"
> > oprócz o wiele bardziej skomplikowanych procesów na poziomie
inteligencji
> > kognitywnej u człowieka niesie ze sobą często nawet ogromny ładunek
emocji-
> > co_nigdy_nie_dzieje_się_w_wypadku_maszyny. Maszyna nie posiada- i nie
> > posiądzie, jak mniemam- inteligencji emocjonalnej.
> > Podsumowując: człowieka "uczę się" i "podejmuję decyzję" to całkiem inne
> > pojęcie od maszynowego "uczę się" i "podejmuję decyzję". Po prostu-
należało
> > by wymyślić na to całkiem inną nazwę- bo i co innego te pojęcia znaczą.
Lub-
> > jak w wypadku rozmowy fizyka i chemika o metalach- obaj powinni zdawać
sobie
> > sprawę z różności definicji metalu w ich dziedzinach, i to uwzględniać-
bo
> > inaczej dojdzie do nieporozumień- pieniaczenia i szarpania za jaja:-)
> >
> >
> > --
> >
> > serdecznie pozdrawiam
> >
> > Chiron
>
> Świadomość to stan przestrzeni. Myślenie to zakłócenie stanu
> świadomości a emocje to zaburzenie świadomości.
> Osoby zaburzone emocjonalnie, są niestabilne zdoworozsądkowo.
> Można inteligencji cyfrowej wprowadzić zaburzenia emocjonalne,
> ale po co mają przekłamywać informację? :-)
> Robakks
> *°"˝'´¨˘`˙.^:;~>¤<×÷-.,˛¸
Robakksie- nie piszemy o świadomości jako takiej, lecz o "podejmowaniu
decyzji". Nie chcę się do tego odnosić- bo to takie IMO ciągnięcie tematu w
bok. Ograniczając się więc do świadomości przy podejmowaniu decyzji:
1. maszyna nigdy świadomości nie będzie mieć. Trochę żartobliwie pisał Lem o
konieczności skonstruowania "sztucznego idioty". Byłby to niesamowity
sukces. Sztucznej inteligencji- 100% podróby ludzkiej- nie da się.
2. podjęciu decyzji przez osobę świadomomą też towarzyszą emocje. Osoba
świadoma potrafi te emocje zrozumieć- co wymaga wysokiej inteligencji
emocjonalnej (kognitywna może nawet teoretycznie oscylować w granicach
debilizmu- to bez znaczenia). Maszyna nie może posiadać inteligencji
emocjonalnej.
--
serdecznie pozdrawiam
Chiron
|