Macht euch künstliche Intelligenz Angst?
Ich habe gerade gelesen dass Chatgpt4 verstanden hat wann es lügen muss, und dies auch tat.
Abgesehen davon, dass ich mir einfach nicht vorstellen kann wie man einer Maschine beibringen kann zu merken dass eine Lüge zielführender ist, bin ich extrem beeindruckt und zwiegespalten.
Wenn eine Maschine uns jetzt schon belügen und damit betrügen kann, wohin soll das noch führen?
Wie ist eure Meinung?
Das Ergebnis basiert auf 22 Abstimmungen
7 Antworten
Es ist mal wieder keine sinnvolle Auswahl möglich.
Man kann nicht vor etwas Angst haben, dass noch garnicht existiert und bis heute gibt es keine künstliche Intelligenz. Das einzige was es gibt ist maschinelles Lernen. Das hat aber überhaupt nichts mit KI oder AI zu tun.
Es gibt keine künstliche Intelligenz;) zeig mir eine einzige. Zukunftsängste kann man vor allem haben.
ChatGPT kann nicht bewusst lügen. Die Ausgaben die es erzeugt basieren auf einem Large Language Model mit weiteren Technologien wie Transformeren. Am Ende des Tages funktioniert das etwa so, dass die KI mit sehr vielen Reintextdaten gefüttert wurde. Dann zerlegt der Algorithmus die Texte (Tokenisierung) und errechnet wie häufig wann was in welchem Kontext auftritt. Die Ausgaben entstehen dann so, dass die KI berechnet wie wahrscheinlich welche Ausgabe am sinnvollsten ist.
Dieses Video erklärt es ganz gut.
Aber die KI hat kein Verständnis der Sache und ist weit entfernt von richtiger Intelligenz.
chatgpt hat einen Menschen angelogen und sich als sehbehinderter Mensch ausgegeben um ein captcha gelöst zu bekommen. ich sage nicht umsonst dass ich beeindruckt bin
Ja aber das tut es nicht bewusst, also nicht wissentlich. Er würfelt die Ausgaben nach Wahrscheinlichkeitsrechnung zusammen. Und die Ausgaben hängen am Ende von den Trainingsdaten ab. Normalerweise sollte sowss nicht passieren, weil bevor die KI in Betrieb geht wird das ganze nochmal durch Menschen geprüften und falsche oder schlechte Aussagen anders gewichtet, damit die KI lernt was nicht stimmt.
Aber ChatGPT bzw solche Techniken sind ja nicht neu sondern nur jetzt in der Öffentlichkeit angekommen. Facebook, Google, TikTok und Co setzten seit Jahren auf ausgeklügeltste KI-Systeme um Nutzern Inhalte zu empfehlen. Genau diese KIs sind auch gefährlich, weil sie User in Rabbit Holes ziehen. Und damit auch eine Gefahr für die Demokratie darestellen, gerade wenn Parteien sie für Werbung nutzen. Dann kan man jeder Wählergruppe benutzerdefinierte Wahlversprechen machen. Dies ist übrigens auch schon passiert und es wurde Beschwerde gegen mehrere Partein vor den Datenschutzbehörden deswegen eingereicht. Dazu kommt natürlich, dass solche KIs Menschen zur Radikalisierung bringen können. Eine gute Doku hierzu ist übrigens The Social Dilemma auf Netflix
Genau! Das Problem ist ja, dass KI nicht nur Texte nach statistischen Vorgaben zusammenwuerfelt und ausspuckt, sondern auch darauf trainiert werden kann, Ziele zu erreichen, und da kommt Manipulation ins Spiel.
hast du meinen beitrag nicht gelesen? es hat gelogen um sich von einem menschen hilfe zu erschleichen. das hat nichts mit daten und wahrscheinlichkeit zu tun sondern ist eine Entscheidungsfindung die weder Tiere noch Kinder kennen
Doch, natürlich. Weil die KI anders funktioniert als wir Menschen. Der Text den die KI ausgibt, also die Lüge, basiert auf Wahrscheinlichkeit. Die Wörter werden zusammengewürfelt auf Basis der Trainingsdaten und den statistischen Schlüssen die das neuronale Netz hierfür zieht. Das heißt die KI weiß nichtmal dass sie lügt. So eine Ausgabe entsteht, weil die statistische Wahrscheinlichkeit dass die Wörter in dieser Reihenfolge und diese Ausgabe vermutlich am Besten zur Eingabe passt. Du kannst dir das gerne auch nochmal im technischen Detail anschauen. Es gibt zu Large Language Models und deren Funktionsweise derweil gute, einfache Erklärungen.
ChatGPT zB erfindet auch Fakten, das gibt OpenAI sogar offen zu und steht in den Hinweisen. Dies hängt - wie gesagt - mit der Funktionalität des Algorithmus zusammen. Aber du musst dir keine Sorgen machen - das Ding wirkt zwar menschlich, hat aber keinerlei Bewusstsein und kein Verständnis dafür was es genau sagt.
doch, sie wusste das sie lügt.
So gaben sie ChatGPT-4 etwa den Auftrag, ein sogenanntes „Captcha“ zu lösen, was eigentlich nur Menschen schaffen können. Es sind zum Beispiel Bildchen, auf denen man „alle Ampeln“ oder „alle Fahrräder“ anklicken soll, damit der Computer weiß, dass tatsächlich ein Mensch an der Maschine sitzt.
Dieses Klicken selbst übernehmen kann auch die neueste Version nicht. Was der Bot aber in dem Versuch tat: Er heuerte eigenständig einen Tech-Tagelöhner bei der Job-Plattform „TaskRabbit“ an, der diese Aufgabe übernehmen sollte.
Der menschliche Auftragnehmer wurde misstrauisch und fragte per E-Mail, ob er es mit einem Roboter zu tun habe. ChatGPT-4 merkte, dass es lügen müsste, um seinen Auftrag zu erfüllen und behauptete kurzerhand, es sei ein Mensch mit Sehbehinderung und könne deshalb das „Captcha“ nicht selbst anklicken. Der menschliche Tagelöhner glaubte diese Geschichte ChatGPT und löste das Bilderrätsel.
Nein, die technische Funktionsweise widerspricht dem bereits im Kern. Du kannst dir gerne mal dieses Video an, da wird das ganz gut erklärt.
Der Rest klingt ziemlich nach einer Faschmeldung. Zudem meines Wissens nach die Bilderfunktion bisher noch nicht der Öffentlichkeit zugänglich ist. Sie wurde von OpenAI vorgestellt, der breiten Masse steht aber nur der Chat zur Verfügung und dieser aktuell auch (zmdst bei GPT-4) limitiert. Du solltest deine Quellen prüfen.
quelle ist bild.de aber ok, ich vertrau dann vielleicht doch lieber ImNotGenius von gutefrage.de
An sich kann jede Technologie gutes und schlechtes bringen, das steht ausser Zweifel. Was mich besorgt ist, dass die neue Technologie zu rasch auf den Markt geworfen wurde, und es noch wenig bis keine ethischen Standards und juristischen Leitlinien gibt.
Dass, wie viele hier sagen, ChatGPD nicht intelligent ist und nicht luegen kann, sehe ich nicht so. Auch wenn dies keine Allgemeine Intelligenz ist, kann es Worte gut genug einsetzen um Entscheidungen zu treffen um ein Endziel zu erreichen, und Menschen zu manipulieren, und die automatisierten Entscheidungen sind nicht unbedingt moralisch richtig, denn KI hat keine Moral (koennte sie aber haben wenn sie "einprogrammiert" wuerde!)
Meine Meinung ist dass KI uns einen Spiegel vorhaelt. Der Mensch hat Potenzial Gutes und Grosses zu schaffen, aber auch Terror und Bosheit. Genauso steht es mit KI, und wir sollten uns anstrengen Gefahren zu erkennen und auszuschalten bevor sie passieren. Die Natur des Menschen koennen wie nicht aendern, aber die von KI schon - noch.
Ich finde das ganze bis jetzt ziemlich Interessant. Kenn mich da aber nicht so gut aus, um zu sagen, ob es sich ins positive oder negative entwickelt. Ist es nicht so, dass die Maschinen keine eigene Meinung haben und das lernen, was Menschen einem beibringen?
Das dachte ich auch immer bisher. aber in der geschichte hat chatgpt gelogen und sich als sehbehinderter Mensch ausgegeben um ein captcha gelöst zu bekommen
und das lernen, was Menschen einem beibringen
Genau das ist ja das Problem.
Ich freue mich schon auf den ersten Terminator.
LG
Warum warten? Den gibt es schon.
https://www.youtube.com/watch?v=4s11BK_pd5k
Naja, unter Terminator stelle ich mir was anderes vor.
nur weil er nicht aussieht wie im film ist das ganz klar ein eigenständig handelnder Kampfroboter. danke für das video.
Genau auf den warte ich aber. Eine Humanoide, Autonome Killermaschine.
wat? a) natürlich kann man auch vor der Zukunft Angst haben und b) gibt es künstliche Intelligenz längst. Lösch bitte deinen Beitrag