Ich hörte vor Kurzem das Wort „entglätten“ im Fernsehen und dachte mir, damit könnte ich die KI herausfordern.
Das Ergebnis könnt ihr hier nachlesen:
Kann ich nicht bestätigen. Die Bedeutung von „entfärben“ ist ja auch bei dir schon völlig korrekt wiedergegeben. Zu „entglätten“: Ich kenne den Begriff aus dem Mathematischen als rückgängig machen einer Glättung, besser bekannt als „smoothing“. Der Duden kennt das Wort gar nicht.
Absolut korrekt führt Chat GPT wie unten angefügt aus. Ich zweifele sehr, dass du von einer großen Anzahl Menschen eine bessere Antwort bekämst. So leid mir das tut:
Ich: was bedeutet „entglätten“?
ChatGPT
„Entglätten“ ist ein Begriff, der in verschiedenen Kontexten verwendet werden kann und im Allgemeinen den Prozess des Entfernens oder Verringerns von Glätte oder Glattheit bezeichnet. In verschiedenen Fachgebieten kann er unterschiedliche spezifische Bedeutungen haben:
- Technik und Handwerk: Beim Schleifen, Polieren oder Bearbeiten von Materialien kann „entglätten“ bedeuten, dass eine zuvor glatte Oberfläche rauer oder strukturierter gemacht wird. Dies kann zum Beispiel notwendig sein, um eine bessere Haftung für Farben oder Beschichtungen zu erzielen.
- Mathematik und Datenanalyse: In der Datenverarbeitung kann „entglätten“ den Prozess der Reduzierung oder Entfernung von Glättungseffekten bezeichnen, die beispielsweise durch Glättungsalgorithmen oder Filter erzeugt wurden. Das Ziel könnte sein, die ursprünglichen, unverarbeiteten Daten besser sichtbar zu machen oder Überglättung zu korrigieren.
- Bildbearbeitung und Grafikdesign: In der digitalen Bildbearbeitung kann „entglätten“ den Prozess des Reduzierens von Glättungseffekten in Bildern bezeichnen, um mehr Details oder eine rauere Textur sichtbar zu machen.
In jedem Fall ist der Kontext entscheidend, um die genaue Bedeutung von „entglätten“ zu verstehen.
Insgesamt ist das natürlich kein Intelligenztest. Textgenerierungs-Software ist natürlich nicht „intelligent“, aber der Test müsste anders aussehen.
Für mich geben solche Beispiele wie das obige keine Entwarnung.
Ein entscheidender Punkt für mich ist, nicht zu schauen wie „dumm“ die KIs noch sind oder darüber zu parlieren was „Intelligenz“ ist, sondern erst einmal zu schauen wie sieht es beim Menschen aus.
Und da, angefangen mit mir, werde ich sehr, sehr demütig. Wenn man genau hinschaut, dann ist der Mensch in seiner Kognition und seinem Denkvermögen extrem limitiert und fehlerhaft.
Das eigentlich Schlimme dabei ist, dass sich viele dessen gar nicht bewusst sind, reden und handeln als gäbe es Fehler, Irrtümer für sie nicht.
Das bedeutet, die Hürde für eine KI, um mit der Leistungsfähigkeit von Menschen gleich zu ziehen, ist deutlich geringer als viele es wahr haben wollen.
Wenn man jetzt noch schaut, das die erste Antwort, wenn auch falsch, dann doch in sich geschlossen ist und vom Kontext nicht völlig falsch. Die zweite Antwort dann besser ist als viele Antworten, welche ein Mensch liefern würde. Wenn man in Betracht zieht, dass die KIs insgesamt viele korrekte Antworten liefern. Dazu wird derzeit extrem viel auf KI spezialisierte Hardware produziert, geliefert und in Rechenzentren verbaut. Dies ermöglicht eine signifikante Skalierung von heutigen KI-Modellen.
Ja, dann wird mir jedenfalls doch mulmig. Und nicht an sich weil die KIs in den kommenden Jahren noch deutlich leistungsfähiger werden.
Nein, sondern weil ich denke, dass der Mensch in seiner Charakteristika, die menschliche Gesellschaft in ihren Ausformungen, das Werkzeug KI kaum umsichtig entwickeln und einsetzen wird.
„Entglätten“ scheint ein unglücklich gewählter Neologismus des Wetterfroschs zu sein…
Meine Frage, etwas umformuliert, wurde so beantwortet:
Ich:
„Was bedeutet das Wort „entglätten“ in Zusammenhang mit Eis auf der Straße?“
ChatGPT:
„Das Wort „entglätten“ in Zusammenhang mit Eis auf der Straße bedeutet, dass Maßnahmen ergriffen werden, um die glatte Oberfläche des Eises zu beseitigen oder zu verringern. In der Regel bezieht sich dies auf das Aufbringen von Streumitteln wie Salz, Sand oder Splitt, um die Eisglätte zu reduzieren und so die Straße sicherer zu machen. Das Ziel ist es, die Rutschgefahr zu mindern und die Haftung der Reifen auf der Fahrbahn zu verbessern.“
Ich:
„Gibt es dieses Wort in dem Zusammenhang?“
ChatGPT
"Es tut mir leid für die Verwirrung. Das Wort „entglätten“ wird nicht allgemein im Zusammenhang mit der Behandlung von Eis auf Straßen verwendet. Mein Fehler. Es scheint, als hätte ich Ihnen eine irreführende Information gegeben.
In der Regel spricht man eher von „Enteisen“ oder „Entfrostung“ im Zusammenhang mit dem Beseitigen von Eis auf Straßen oder anderen Oberflächen. Enteisen bezieht sich auf den Prozess, bei dem Maßnahmen ergriffen werden, um Eis zu schmelzen oder zu entfernen, um die Fahrbahn sicherer zu machen. Das können zum Beispiel das Streuen von Salz, das Anwenden von speziellen Enteisungsmitteln oder das mechanische Entfernen von Eis sein."
Ja, so ist das mit der KI. Bisher kann ich bei dem Trubel um KI nur erkennen, dass wir den alten Wein in neuen Schläuchen serviert bekommen. Bis eine Chat-KI tatsächlich intelligent antwortet, müssen wir noch warten, bis der Rechner gelernt hat, eine Frage menschlich zu interpretieren. Ich empfehle in diesem Zusammenhang, sich über die Entwicklung von Spracherkennungssoftware zu informieren. Dort gibt es die Problematik der „Interpretation“ von Information schon lange.
Ich nehme gerade an einem Kurs teil, wie man gute Prompts für KI erstellt. Denn es ist ähnlich wie bei Programmiersprachen: Der Eingabetext ist entscheidend.
Wenn ich einer KI munter drauf los Fragen stelle, wird sie munter drauf los antworten. Ich habe ihr vorher keine Rolle zugeteilt. Das ist aber enorm wichtig, wenn man mit KI korrekt kommunizieren möchte.
Will ich zum Beispiel Tipps zur Hundehaltung haben, werde ich dem Chat-Bot erst einmal die Rolle eines erfahrenen Hundetrainers zuweisen. Dann kommen auch gute Tipps heraus. Sonst gibt es nur halluzinierte Ratschäge.
[Einschub:
Auch ist die Länge der Unterhaltung entscheidend. Der Bot kann sich nur einen gewissen Teil der Unterhaltung (immer den letzten) merken. Ich glaube, es sind etwa 3000 Tokens (das sind ähnliche Wortstücke wie Silben, aber doch anders aufgeschlüsselt) im frei zugänglichen ChatGPT (meine ich). Bing hat - glaube ich - nur 2000 Tokens. Ein Bot merkt sich also die letzten n Tokens in einer Unterhaltung. Das, was davor thematisiert wurde, vergisst er. Es sei denn, man fasst das Wichtigste immer mal wieder in der Unterhaltung zusammen.]
Es könnte ja sein, dass man besonders phantasievolle Ideen bezüglich des Wortes „Entglätten“ haben möchte. Einfach, weil man einen lustigen Prosatext mit allen möglichen Erklärungen schreiben möchte. Dann wäre ein Phantasieren der KI bestimmt von Vorteil.
Will man aber wissen, in welchen Berufs-/Themenbereichen das Wort wirklich verwendet wird, sollte man vielleicht der KI vorher sagen, dass sie sich wie ein Sprachwissenschaftler auf hohem Niveau verhalten und nur quellenbasierte Antworten geben soll. „ChatGPTpro“ hat Zugriff auf das Internet und kann auch zugängliche Wissensdatenbanken konsultieren. Ich habe das nicht abonniert, weil ich mehr phantastisch unterwegs bin. Aber würde ich profunde Daten brauchen, würde ich mir wohl so ein Abo holen.
So ein Kurs lohnt sich wirklich. Ich habe ihn in der Black-Friday-Woche recht günstig erhalten und nehme gern teil. Es ist da bestimmt auch noch Luft nach oben, aber man lernt schon eine Menge dazu. Ob ich ihn empfehlen kann, weiß ich noch nicht. Hab erst ein Viertel davon gehört. Der Kurs wird aber ständig weiterentwickelt.
@Zauberfrau: Guter Beitrag!
Das Problem, dem eine KI gegenübersteht - ob Chat, Malerei, Audio-Video etc., wurde noch nie so gut dargestellt, wie in dem Film Ex Machina von Alex Garland (kam 2023 auf ARTE, wird sicher bald wiederholt).
Ich habe mal eine frei übersetzte Dialogszene aus dem Drehbuch genommen, um die Problematik zu beschreiben:
(Nathan, der KI-Guru in dem Film steht zusammen mit seinem Gast Caleb vor einem Gemälde von Jackson Pollock. Nathan möchte Caleb erklären, warum sich Kunst nicht berechnen lässt)…
CALEB öffnet den Mund, um etwas zu erwidern, aber NATHAN unterbricht ihn und deutet auf die Tropfbilder von Pollock.
NATHAN
Du kennst diesen Kerl, oder?
CALEB
Pollock
NATHAN
Pollock. Der Action-Painter. Er ließ seinen Verstand leerlaufen und seine Hand gehen, wohin sie wollte. Nicht absichtlich, nicht zufällig. Irgendwo dazwischen. Sie nannten es automatische Kunst.
NATHAN starrt auf die Leinwand
NATHAN (CONT’D)
Lass uns das wie Star Trek machen, okay? Schaltet den Intellekt ein.
CALEB
… Was?
NATHAN
Ich bin Kirk. Dein Kopf ist der Warp-Antrieb. „Intellekt einschalten“. Was wäre, wenn Pollock die Herausforderung umgedreht hätte? Anstatt zu versuchen, Kunst zu machen, ohne nachzudenken, hätte er gesagt: Ich kann nichts malen, wenn ich nicht genau weiß, warum ich es tue. Was wäre dann passiert?
CALEB denkt nach
CALEB
Er hätte kein einziges Bild gemacht.
ENDE ZITAT
Genau darum geht es. Er hätte kein einziges Bild gemacht.
Bis eine KI tatsächlich diese Fähigkeit erlernt hat Kunst zu erschaffen, wird noch sehr viel Wasser den Rhein hinabfließen.
sehe ich ähnlich. Ich habe beruflich mittlerweile einige Konfrontationen mit KI-Produkten gehabt - darunter ein komplettes, fertig layoutetes Ratgeber-Buch aus dem Ernährungsbereich, das besser war als etliches, was ich von „biologischen Intelligenzen“ in der Hand hatte; entscheidend ist wirklich, von wem und wie professionell die KI angeleitet wird. Dass KI auch den kreativen/künstlerischen Bereich in heftige Bewegung versetzen wird, dürfte sicher sein.
It’s a long Road…to K.I.
Ich versuchte soeben herauszufinden, ob KI Humor kann. Schwierig. Der erste Hit bei Google (kann KI Witze machen?):
„Eine künstliche Intelligenz kann mit sehr viel Aufwand begrenzt lustige Aussagen produzieren. Da Humor aber zu subjektiv und komplex ist, um allgemeine computergerechte Regeln aufzustellen, wird es wohl erst einmal bei Annäherungen bleiben. Fraglich ist auch, ob es KI mit Humor überhaupt braucht.“
Schön diese Bemerkung: Fraglich ist auch, ob es KI mit Humor überhaupt braucht.
So kann man alles in Frage stellen und relativieren, was die K.I. betrifft.
Betreff Humor und K.I.: In diesem Beitrag auf Spiegel-Online kann man die Schwächen einer KI nachlesen, die eine Endlos-Sitcom produziert. (Frei verfügbar OHNE Bezahlschranke)
Neben der Frage „Wie intelligent ist KI oder ist sie überhaupt als intelligent zu bezeichnen?“ stellt sich für mich eine Frage, die nicht weniger relevant zu sein scheint: Wie sehr wird die KI unsere Gesellschaft verändern, weil sie wissenschaftliche Forschung und wirtschaftliche Entwicklung zumindest in ihrer zeitlichen Geschwindigkeit verändert?
Und beides wird Auswirkungen auf das Sozialgefüge von Gesellschaft haben. Während die Frage von „Intelligenz“ vielleicht nicht von Heute und Morgen direkt Auswirkungen hat, glaube ich eher an die sehr viel schnellere spürbare Veränderung in unseren gesellschaftlichen Prozessen.
Meine Sorge ist, dass hier schnelle Änderungen zu neuen wirtschaftlichen Verwerfungen mit sozialen Auswirkungen führen. Das wiederum mag Ängste und neue Nöte hervorbringen - und damit konnten bisher viele Menschen nicht so gut umgehen. Und es wird solche geben, die Ängste gerne nutzen und „Antworten“ ausgeben, um ganz andere Ziele zu verfolgen, die wiederum mit KI eigentlich nichts zu tun haben.
@Thorvald: Ich teile in hohem Maße deine Einschätzung. Ich sehe vordergründig in der Informationsverarbeitung (Nachrichtentexte, Bildberichterstattung) und auch in Bereichen wie Marketing, Werbung große Risken insofern, daß wir keine Basis mehr haben werden, wir vertrauen können.
Wenn wir bisher eine FAZ höher bewerten als eine BILD dann könnte sich das verändern in dem Maße, wie mehr und mehr Nachrichtentexte in der Branche mit KI generiert werden.
Wenn es sorgsam gemacht ist, kann das sogar einige Vorteile und gute Ergebnisse bringen, aber leider werden von den Menschen gute Werkzeuge oft für unlautere Zwecke verwendet.
Dazu passt die Meldung „Softwarekonzern soll im britischen Postskandal Millionenentschädigung zahlen“ heute bei SPON.
„Die Horizon-Software hatte zu Abrechnungsfehlern in Postfilialen geführt, die dann den Filialleitern angelastet und als böswilligen Betrug ausgelegt wurden. Zu Unrecht mussten viele von ihnen vermeintlich ausstehendes Geld aus eigener Tasche begleichen, kamen vor Gericht und teils ins Gefängnis. Als Folge falscher Verdächtigungen wurde ihr Ruf zerstört, sie waren vorbestraft, in besonders tragischen Fällen geht es auch um Suizid.“
Besonders pikant: „In einem Urteil rügte der Richter die Post für die Weigerung anzuerkennen, dass eine Software auch fehlerhaft sein könnte.“
Wenn in Zukunft Entscheidungen einer KI sakrosankt werden, könnte KI tatsächlich gefährlicher als Pandemien oder ein Atomkrieg sein.
Unterschätzt wird - auf dem Weg zur KI - die Entwicklung des Quantencomputers. Wenn dieses Gerät ausgereift ist, wäre dies eine potenzielle Gefahr für die Weltwirtschaft und die Sicherheit im Allgemeinen. Zugänge zu Bankkonten und Geheimnissen wären in sekundenschnelle gehackt, Bitcoin würde eine massive Entwertung erfahren.
Der Film Oppenheimer passt hier in das Erklärungsmuster: Was wissenschaftlich möglich ist, wird ermöglicht.
Warum entwickelte Oppenheimer die Atombombe? Weil es sonst die Nazis gemacht hätten. Warum werfe ich Atombomben auf japanische Städte? Weil man sehen möchte, wie das Schadensmuster aussieht.
Grüße von Dr. Frankenstein.
Zum Glück nicht immer.
Zitat Wikipedia über Werner Heisenberg und die Atombombe:
„Er [Heisenberg] und seine Kollegen kamen schon früh zu dem Schluss, dass die aufwändige Anreicherung des Spaltstoffes Uran 235 mit den allgemein zur Verfügung stehenden Ressourcen während der voraussichtlichen Restdauer des Krieges nicht zu machen war, und informierten dahingehend am 4. Juni 1942 Albert Speer. Allerdings verschwiegen sie (oder sprachen davon nur in Andeutungen) die Möglichkeit, eine Kernwaffe mit Plutonium zu bauen, bei der die Trennung viel einfacher chemisch ablaufen konnte […] Auf die entscheidende Frage Speers, wie lange sie für eine Bombe bräuchten, gab er drei bis fünf Jahre an – womit das Projekt seine Priorität verlor.“
Letztlich wurde die Bombe nicht nur gebaut sondern auch eingesetzt!
Die Argumente, die ich aufliste, sind die der Amerikaner. Dass die Deutschen am Ende des 2. Weltkriegs keine Atombombe hatten, lag an deren Unfähigkeit ausreichend potenziell spaltbares Material herzustellen.
Einen entsprechenden Artikel kann man hier nachlesen.
Das Dilemma Einsteins kann man hier bei der Zeitschrift Wissenschaft und Frieden nachlesen (keine Bezahlschranke).
Leider sind moralische Bedenken in der Wissenschaft fast immer nachgeschaltet. Das betrifft das Klonen, das Erschaffen von Viren („Gain of Function“-Forschung) oder aktuell die KI. Die EU mag ihr KI-Gesetz beschließen, die US-Amerikaner wird das nicht beeinflussen. Daher teile ich die trüben Aussichten der Mitforisten.