Aufstand der K.I.

Gorgona

Erleuchteter
Registriert
7. Januar 2003
Beiträge
1.501
Korrigiert mich bitte wenn ich falsch liege, aber Viren schädigen doch PCs richtig?
Und die CPU gehört doch zu einem PC. Warum sollte sich der PC also selbst schaden? Wäre das nicht autoagressiv? Würde das nicht eher bedeuten, dass der PC psychologische Hilfe bräuchte und würde das nicht wiederum bedeuten, dass die CPU auch eine Psyche entwickelt hat?
Und würde das nicht bedeuten das wir hier zu weit gehen ? :roll:
 

tsuribito

Erleuchteter
Registriert
27. September 2002
Beiträge
1.092
Nicht unbedingt. Man könnte argumentieren, dass eine Maschine sich selbst "Schmerzen" zufügt, um sich ihre Existenz zu beweisen.

Ich habe selbst oft Creatures gespielt.
Leider nutzt dieses Spiel die wahren Fähigkeiten dieser KI nicht aus. Es ist alles zu sehr auf Spiel getrimmt.
Wenn ich die Intelligenz der Norns direkt mit meiner Hardware verbinden könnte, wäre das wohl der erste Schritt zu HAL
 

spriessling

Großmeister
Registriert
11. April 2002
Beiträge
963
Eine k.i. müsste ihr Wissen wohl aus einem Netzwerk wie dem Internet ziehen und was würde das wohl geben? Wohl einen sexbesessenen Verschwörungsparanoiker, der das Lachen verlernt hat und nur noch *lollen* und *gg*en kann.
 

blaXXer

Großmeister
Registriert
8. Dezember 2003
Beiträge
711
EVO schrieb:

totaler bullshit...du solltest weniger matrix und i, robot sehen sondern dich ml mit den momentan vorhandenen technischen möglichkeiten befassen...

mann mann mann...womit man sich doch so immer wieder auseinandersetzen muss...*würg* 8)
 

Sawvytch

Lehrling
Registriert
26. März 2004
Beiträge
27
Also...
1. Es ist zwar ultraunwarscheinlich, dass Computer der Welt ein Bewusstsein entwickelt haben, aber unmöglich ist es nicht. Aber ich denke, dass, wenn es sowas wie ein Bewusstsein gäbe, und selbiges uns feindlich gesonnen ist, sich das schwerwiegender als durch ein paar "harmlose" viren äussern würde.

2. Ich denke nicht, dass Computer in naher Zukunft ein Bewusstsein entwickeln werden, das in irgendeiner Art und Weise dem natürlichem Bewusstsein(z.b. Mensch) nahe kommt. Im Prinzip sind Computer nur elektronische Abakusse. Der natürliche Denkprozess läuft zwar (nach meinem Wissen) in etwa genauso ab, aber man darf dabei nicht vergessen, dass Lebewesen und deren Denken und Handeln zu einem nicht gerade geringen Anteil von Emotionen (welche durch indivuduelle Erfahrungen, Hormonausschüttungen und was weiss ich erzeugt werden) beeinflusst werden. Und Etwas was diesem Nahe kommt, haben heutige Rechenmaschinen nicht. Man darf Rechenleistung nicht mit dem Grade eines Bewussteins gleichsetzen. es erfordert zwar rechenleistung für ein bewusstsein, aber umgekehrt ermöglicht rechenlsitung nicht unbedungt ein Bewustssein. Heutige grossrechner haben ungefähr die Kapazität von Fliegen, trotzdem würden selbige, selbst wenn sie könnten, nicht anfangen, an wänden rumzuklettern, und Fröschen aus dem Weg gehen ;D(hoffe ihr versteht, was ich meine).
Weiterhin macht es keinen sinn, so etwas wie Gefühle o.ä. einzubauen, denn Emotionen haben wir selber mehr als genug, und es würde unsere Elektronischen Helferleine in ihrer eigentlichen Aufgabe nur behindern: irgendwelche Scheisse auszurechnen.
 

InsularMind

Erleuchteter
Registriert
9. Dezember 2003
Beiträge
1.086
Ich würde sagen, dass das erst dann zu einer realen Gefahr wird, wenn die Menschen ihre Maschinen menschlicher gemacht haben.

Denn üblicherweise ist der Computer das erweiterte Werkzeug des Menschen, und so wie ein Jagdgewehr geht nicht der PC irgendwann bewusst durchs Web mit virtuellen Krakenarmen und wühlt in den Hirnen herum, sondern der Mensch wird den PC / die Programme evtl dazu benutzen, um sowas auszuhecken.
Kann mir das trotzdem nur vorstellen, wenn es eine Verschmelzung von Mensch und Computer gibt, in der Zukunft der Computer vielleicht zur Erweiterung des Geistes und der Leistungskapazität des Menschen fortentwickelt wird.
Da könnte ich mir auch vorstellen, dass sich das soweit steigert, dass der Mensch den Geist aufgibt, wenn sein Zentralcomputer beschließt, Selbstzerstörung zu begehen...
 

atom999

Geselle
Registriert
4. Dezember 2003
Beiträge
64
Meine Vermutung ist das in den nächsten Jahrzehnten ein Programm entwickelt wird das den Menschen vorgauckelt und den anschein erweckt als wäre es Intelligent. Aber ich denke das es keiner hier im Forum erleben wird das eine echte KI auftaucht. Es sei den die Lebenspanne der Menschen läßt sich auch künstlich erheblich verlängern. Aber Wissen kann mans nie :roll:
 

forcemagick

Forenlegende
Registriert
12. Mai 2002
Beiträge
6.038
die frage ist was ist KI? können wir den turingtest wirklich noch als maßstab nehmen? oder müssen wir davon ausgehen, dass eine wirkliche künstliche intelligenz ganz andes ist als unsere intelligenz?

würden wir KI überhaupt erkennen?
 

atom999

Geselle
Registriert
4. Dezember 2003
Beiträge
64
Ich glaub schon das wir eine KI erkennen würden den wir würden Ihr sicherlich einige fragen zu beantworten haben.
 

zeroone

Lehrling
Registriert
26. Januar 2005
Beiträge
32
Ich denke, die meisten von euch sind wohl noch etwas zu sehr von matrix, terminator usw. geprägt. Die heutige Forschung ist noch meilenweit davon entfernt ein Computerprogramm zu schaffen was so etwas wie künstliche Intelligenz besitzt. Zumindest "starke KI" "schwache" KI gibt es schon. ZB Sprach oder Schrifterkennung. Aber das ist keine richtige KI. "starke" oder echte KI gibt es bis heute auch in Ansätzen nicht. Jede Ameise ist intelligenter als der modernste Clusterrechner. Das ist leider die Wahrheit. Das Problem ist nicht die Rechengeschwindigkeit. Es ist sicher schon heute möglich einen Computer zu bauen, der die ähnliche Rechenleistung besitzt wie ein menschliches Gehirn. Aber leider ist das nicht sonderlich wichtig. Die Probleme liegen ganz woanders.
Es ist bis heute nicht gelungen die Wirkungsweise des menschlichen Gehirns im Detail zu verstehen. Und wie soll man etwas kopieren wenn man das Orginal nicht versteht? Auch ist die Wirkungsweise von Nervensystemen (nicht nur Mensch) vermutlich ganz anders als die von Computern. Weiterhin sind wir mit Sinnesorganen ausgestattet. Und was "Gefühle" sind ist uns auch nicht bekannt. Also sicher sind sie uns bekannt. Sie sind denke ich die absolute Grundlage unserer jetztigen Existenz neben unserer Intelligenz, aber wie kopieren? Die Herausforderung sich selbst zu kopieren ist wohl die größte Aufgabe überhaupt die sich ein Intelligenter Organismus stellen kann.
Ich vermute aber trotzdem das es gelingen wird. Man kann zB Evolution am Rechner zigtausend mal schneller ablaufen lassen als in real. Der Code der dabei herauskommt den versteht aber niemand mehr. DAS könnte irgendwann zum Problem werden. Ausserdem wenn man die Entwicklung der Maschinen in den letzten hundert Jahren sich vor Augen führt und davon ausgeht das, das soweitergeht? Was ist in 1000 Jahren? Die Evolution der Maschinen geht jedenfalls bis jetzt noch mindestens 1 Mio mal (die Zahl meine ich ernst) schneller vonstatten als die die der organischen Evolution. Nur die größte Frage bleibt: Stößt der Mensch irgendwann an eine Grenze, an der er nicht weiterkommt, weil sein Brain nicht mehr mitmacht, oder schafft er etwas was ihm insgesamt überlegen ist? (und besiegelt damit vielleicht sein eigenes Schicksal?) Das ist die große Frage.
 

MasterX

Geselle
Registriert
25. Januar 2004
Beiträge
79
Ich denke, die meisten von euch sind wohl noch etwas zu sehr von matrix, terminator usw. geprägt.

Dir sollte nicht entgangen sein mit welcher Geschwindigkeit sich die Hardware entwickelt, dass dürfte auch bei der Software ähnlich laufen.

Es geht ja nicht nur darum, ob es KI geben wird, sondern zu welchen Zwecken. Es wird doch heute nur an KI geforscht, die irgendwelche stinkreichen Männer noch reicher macht.

Es muss "nur" jemand eine KI entwickeln die Sprache versteht, Bilder interpretieren kann, lernt und sich selbst erweitert.. Wie ein Baby klein anfangend, irgendwann superintelligent. Die Wahrscheinlichkeit dafür liegt ja wohl mind. bei 90% für die nächsten 50 Jahre.

Was wären aber die Folgen? Massenarbeitslosigkeit, Aufstand, Revolution, wird wiederum eingedämmt durch massenhaften Einsatz hochmoderner Technik(Überwachung). Ja, wenn ich höre, das Graffitisprayer mit Hubschraubern verfolgt werden sollen, da kommt mir wirklich Terminator1 in den Sinn.
Vielleicht ist es eh unausweichlich, dass wir technologisch irgendwann so hoch entwickelt sind, das Katastrophen zumindest sehr wahrscheinlich sind, aber ich finde es schade, wenn es durch die Geldgier der Menschen gefördert wird.
 

PirAz

Meister
Registriert
5. August 2002
Beiträge
215
Dir sollte nicht entgangen sein mit welcher Geschwindigkeit sich die Hardware entwickelt, dass dürfte auch bei der Software ähnlich laufen.

Das ist nur scheinbar logisch.

Es muss "nur" jemand eine KI entwickeln die Sprache versteht, Bilder interpretieren kann, lernt und sich selbst erweitert.. Wie ein Baby klein anfangend, irgendwann superintelligent. Die Wahrscheinlichkeit dafür liegt ja wohl mind. bei 90% für die nächsten 50 Jahre.

Es ist sauschwer bzw. fast unmöglich einen Computer zu programmieren der Sprache versteht. Wenn man einem Computer den Satz "sagt" : "Felix sah im Schaufenster ein Fahrrad. Er wollte es haben." weiß der Computer z.B. nicht ob Felix das Schaufenster oder das Fahrrad haben will. Genaugenommen weiß er nicht einmal, dass "Felix" und "Er" derselbe sind. Damit der computer diesen billigen Satz verstehen kann muss er WISSEN, dass Menschen wahrscheinlich lieber Fahrräder als Schaufenster haben wollen. Außerdem muss er WISSEN, dass Felix der Name eines männlichen Menschen ist.

Dieses WISSEN, das Menschen fast automatisch erwerben müsste man einem Computer einprogrammieren und das sind unzählige Informationen auf die wir nie kommen würden, weil sie normal für uns sind. Richtig schwierig wird es bei Metaphern, Poesie usw. .

Desweiteren hat ein Computer nicht die ausgereifte Sensorik eines Menschen und nimmt die Welt, wenn er sie wahrnimmt, anders wahr. Er hat z.b. auch keine Körperwahrnehmung. Diese andere Wahrnehmung macht es dem Computer noch schwieriger sich in Menschen hineinzuversetzen. Dieses Hineinversetzen können ist aber eine Grundlage für Kommunikation.
 

Marc

Großmeister
Registriert
31. Dezember 2003
Beiträge
989
PirAz schrieb:
Dieses WISSEN, das Menschen fast automatisch erwerben müsste man einem Computer einprogrammieren
Vielleicht reicht es auch völlig aus wenn man einfach die Neuronalen Netze verbessert.
 

DrJones

Ehrenmitglied
Registriert
21. Mai 2002
Beiträge
2.172
Also wenn eine KI oder ein sich bewusst gewordenes Internet
versuchen wollte die Kontrolle zu übernehmen oder die Menschen zu
ärgern, dann würde es sich denke ich nicht selber mit programmierten
Viren veseuchen.
Diese KI würde das sicher viel eleganter machen.
 

PirAz

Meister
Registriert
5. August 2002
Beiträge
215
Vielleicht reicht es auch völlig aus wenn man einfach die Neuronalen Netze verbessert.


Naja man is noch ziemlich weit davon entfernt das Vorbild neuronaler Netze, nämlich das Gehirn, wirklich zu verstehen. Deshalb sind neuronale Netze auch noch nicht der Quantensprung zur "echten KI". Klar ermöglichen sie Dinge, die vorher unmöglich schienen (z.B. die Unterscheiding von Mann und Frau durch den Computer), aber zum Computer,der bewusst handelt/denkt ist es noch ein ganzes Stückchen.
Sieht man auch daran, dass es die Idee der neuronalen Netze schon seit den 50ern gibt und die Forscher somit ca. 50 Jahre Zeit hatten damit zu arbeiten. Na gut: ihren Durchbruch hatte die Idee erst in den 80ern, aber das sind auch schon gute 20 Jahre...
 

JCDenton

Meister
Registriert
27. Januar 2003
Beiträge
216
also ich glaube irgendwie kaum, dass es sich dabei wesentlich um ein hardware technisches problem handelt (ob nun neuronale netze oder quantencomputer), sondern eher um ein algorithmisches problem.
klar, besitzt auch auch diese problemkategorie gewisse grenzen ( z.b. das halteproblem in der berechenbarkeitstheorie oder die np/komplexitätstheorie)...problemlösung in endlicher zeit nicht akzeptabel->
genügen neue algorithmen oder braucht man wirklich einen quantencomputer um 3sat € p zu beweisen? bin da etwas skeptisch :)

nebenbei kommt es ja auf die definition von intelligenz an. muss denn die K.I ein bewußtsein entwickeln um intelligent handeln zu können? man könnte bewußtsein ja approximieren, indem man schnelle algorithmen zur entscheidungsbestimmung programmiert, wobei dem programm alle wichtigen infos, durch prioriäten ausgewählt, zur verfügung stehen.
denn wozu braucht eine maschine solch einen ballast wie ein menschliches gewissen oder gefühle?
computer sollen einfach möglichst schnell rational entscheidungen treffen
z.b. wenn ein roboter arbeit verrichtet , ohne dass die tätigkeit jemals vorher programmiert worden ist.
so, ein kleines brainstorming meinerseits zu dem thema :)
 

Marc

Großmeister
Registriert
31. Dezember 2003
Beiträge
989
PirAz schrieb:
Vielleicht reicht es auch völlig aus wenn man einfach die Neuronalen Netze verbessert.


Naja man is noch ziemlich weit davon entfernt das Vorbild neuronaler Netze, nämlich das Gehirn, wirklich zu verstehen. Deshalb sind neuronale Netze auch noch nicht der Quantensprung zur "echten KI". Klar ermöglichen sie Dinge, die vorher unmöglich schienen (z.B. die Unterscheiding von Mann und Frau durch den Computer), aber zum Computer,der bewusst handelt/denkt ist es noch ein ganzes Stückchen.
Es ging mir auch nicht darum zu behaupten das neuronale Netze der Quantensprung zur KI sind, sondern darum das du geschrieben hast das man einem Computer alles "Wissen" einprogrammieren muss.
Ich denke der Artikel mit den kleinen Programmen und dem Flugsimulator zeit das es anders ist.

JCDenton schrieb:
also ich glaube irgendwie kaum, dass es sich dabei wesentlich um ein hardware technisches problem handelt (ob nun neuronale netze oder quantencomputer),
Wie kommst du darauf das Neuronale Netze unbedingt ein hardware technisches Problem sein müssen?
 

MasterX

Geselle
Registriert
25. Januar 2004
Beiträge
79
Es dürfte sich ja wohl langsam rumgesprochen haben, dass man einem Computer nicht alles Wissen einprogrammieren kann, weil man dann jahrhunderte tippen kann. Deswegen habe ich ja auch gesagt, dass man selbstlernende K.I. programmieren muss, die sich von alleine das ganze Wissen aneignen. Und da sind schon viele Forscher dabei, insbesondere wenn es darum geht Bilder zu verstehen, was sicherlich sehr schwierig ist. Also ich hätte vor 10 Jahren nicht geglaubt, wenn mir einer gesagt hätte wie sich die Handyindustrie entwickelt. Das geht dann manchmal schneller als man denkt. Es ist aber generell beängstigend, wenn man sieht, dass Ratten schon per Computer ferngesteuert werden können, mittel eingaepflanzter Elektroden im Gehirn. Ich hatte letztens eine Doku über das Thema gesehen, der Schlusstenor war ungefähr so, dass die besten Roboter Kombinationen aus Mensch und Maschine sein werden. Es gibt ja jetzt schon Armprothesen, die man mittels Anspannen diverser Muskeln steuern kann. Und da wären wir wieder bei der Machbarkeit, wenn ein Markt für bestimmte Sachen da ist, sprich Geld zu verdienen ist, dann geht die Entwicklung oft rasant voran.
 

Ähnliche Beiträge

Oben