Das ganz normale Programm mit Registrierung.
Wow, danke für die Antwort. Und zumindest mir macht es nichts aus, wenn sie etwas länger wurde.
Ich erkenne und akzeptiere, DASS „KI“ einen Nutzen haben kann. Jedoch, da hast du Recht, erwarte ich halt auch einiges. Was da bei meinen ersten Versuchen rauskam war z. T. grauslig.
Bevor ich da Geld rein steckte wollte ich halt mal schauen, ob ich damit zurecht komme. Morgen schaue ich weiter
Also ich habe es gerade auspropiert…Funktioniert bei mir nicht. Katze hat einen weißen Hals, oder zwei weiße Füße…
Seltsam, beim gleichen Prompt?
Das passiert… Manchmal klappen die Prompts und dann wieder nicht
Vor allem kommt bei jedem Durchlauf - selbst mit dem gleichen Prompt - ein anderes Ergebnis raus. Reproduzierbar sind die Bilder nie.
Genau…
Ich suche mir jemand, der die Bilder zeichnet. Ich weiss nicht, wie anders als „has one white front paw“ ich es ausdrücken soll. Ob die Pfote nun „delicate“ owai sein soll ist schnurz, sie soll VORHANDEN sein. Entweder das Vieh hat nur drei Pfoten oder vier schwarze. Dafür liegt auf dem Ast der vor ihr liegt Vogeldreck … Ich packs nicht.
Es ist manchmal schwierig mit der KI
Probiere mal Canva aus. Da kannst du auf deutsch genau beschreiben, was du möchtest. Auch in einem langen Text. Und die Ki versteht das auch gut. Schalte es auf Raytracing und such dir ein Bildformat aus. Ich finde Canva ist mit die beste Ki gerade für Bilder.
Kann mir jemand erklären, wieso KIs solche Probleme mit Händen und Fingern haben? Da sind gerne mal 6 Finger, oder drei oder 90 Grad Winkel drin.
Auch die Nacharbeit mit „bitte überprüfe die finger an den händen“ (auf Englisch) hat keine Besserung ergeben.
Buah sieht ja gruslig aus. Monsterchor oder was?
Danke, ich versuchs mal. Leonardo gefiele mir sonst eigentlich ganz gut.
Also, ich finde es logisch. Alles nichtmenschliche hat andere Finger .
Das ist mir schon häufiger aufgefallen. Bei Facebook tauchen immer öfter angeblich echte Fotos auf, die immer realistischer werden. Wenn man wissen will, ob die von einer KI stammen, muss man nur schauen, ob irgendwo Hände zu sehen sind.
Stable Diffusion als lokale Installation ist mit das Beste was man nutzten kann.
Und es ist kostenlos, man sollte aber die entsprechende Hardware haben (gute Grafikkarte).
Ich poste unten paar Beispiele…
Ich habe meine KI gefragt, wo das Problem liegt:
KI-Bildgeneratoren haben aus mehreren Gründen Schwierigkeiten, menschliche Finger korrekt darzustellen:
Komplexität der Handanatomie
Die menschliche Hand ist anatomisch sehr komplex und variabel:
- Hände können sich in tausenden verschiedenen Positionen befinden und sehen je nach Blickwinkel völlig anders aus[3].
- Die Geometrie einer Hand hat keinen Standardsatz von Formen und Linien[4].
- Hände enthalten 30 geometrische Unterschiede, was sie individueller als Gesichter macht[4].
Limitationen des KI-Trainings
Die Art und Weise, wie KI-Modelle trainiert werden, führt zu Problemen:
- KI-Systeme haben nie einen echten Menschen „gesehen“, sondern kennen nur zweidimensionale Pixelabbildungen[1].
- Sie verstehen nicht die zugrundeliegende Anatomie wie Knochen, Sehnen und Gelenke[1].
- KI-Modelle haben kein internes 3D-Modell einer Hand, sondern „spielen“ nur mit Bildern[3].
Statistische vs. symbolische Verarbeitung
KI-Bildgeneratoren arbeiten primär mit statistischen Methoden:
- Sie können nicht bis fünf zählen und verstehen nicht das Konzept einer Hand mit fünf Fingern in fester Anordnung[10].
- Es fehlt die Verbindung von statistischem Deep Learning mit symbolischem, abstraktem Wissen[10].
Datenlimitationen
Die Trainingsdaten der KI-Modelle können problematisch sein:
- Es gibt möglicherweise nicht genug Bilder von Händen im Internet für ein optimales Training[4].
- Viele Trainingsbilder zeigen Hände nur teilweise oder verdeckt[3].
Wahrnehmungseffekte
Die menschliche Wahrnehmung spielt ebenfalls eine Rolle:
- Wir sind besonders sensibel für Fehler bei der Darstellung von Händen[4].
- Kleine Abweichungen fallen uns sofort auf, während wir Fehler bei anderen Körperteilen eher übersehen[4].
Trotz dieser Herausforderungen gibt es Fortschritte: Neuere Versionen von KI-Bildgeneratoren wie Midjourney v5 haben die Darstellung von Händen bereits deutlich verbessert[3][10]. Zudem arbeiten Forscher an speziellen Techniken wie dem HandRefiner, um deformierte Hände in generierten Bildern nachträglich zu korrigieren[2].
Quellen
[1] Warum bilden KI-Programme die Finger von Menschen oft falsch ab? Warum bilden KI-Programme die Finger von Menschen oft falsch ab? (Computer, Bilder, Foto)
[2] KI verfeinert die Kunst realistischer Handdarstellungen - Mindverse https://www.mind-verse.de/news/ki-verfeinert-kunst-realistischer-handdarstellungen
[3] ELI5: Warum hat von KI generierte Kunstwerke ungenaue Hände? https://www.reddit.com/r/explainlikeimfive/comments/16ncdio/eli5_why_does_ai_generated_artwork_have/?tl=de
[4] Warum kann KI keine Hände und Füße malen? Einfach erklärt - CHIP Warum kann KI keine Hände und Füße malen? Einfach erklärt - CHIP
[5] Augenoptik und KI und der fehlende Finger - eyebizz Augenoptik und KI und der fehlende Finger › eyebizz
[6] Weshalb künstliche Intelligenz ein Problem mit der Darstellung von … Weshalb künstliche Intelligenz ein Problem mit der Darstellung von Händen hat - Wer hat das nicht?!
[7] Der KI auf die Finger (Zehen) geschaut: Höchststrafe für KI: Bild … Der KI auf die Finger (Zehen) geschaut: Höchststrafe für KI: Bild eines barfüßigen Akkordeonspielers - Mülheim an der Ruhr
[8] Warum sind KI-Bildgeneratoren schlecht darin, Hände zu generieren? https://www.reddit.com/r/StableDiffusion/comments/16v9l3u/why_ai_image_generators_are_bad_at_generating/?tl=de
[9] Midjourney und Dall-E: Warum KI-Programme oft keine Hände … Midjourney und Dall-E: Warum KI-Programme oft keine Hände malen können | swp.de
[10] Warum KI keine Hände kann - Zukunft - derStandard.de Warum KI keine Hände kann - Zukunft - derStandard.de › Wissen und Gesellschaft
Ich nutze Stable Diffusion lokal auf meinem PC installiert.
Dadurch kann ich jedes SD-Model nehmen was es gibt und kann pro Tag soviele Images erzeugen wie ich will.
Ich kann Fotorealistisch, Comic, Manga, Skizzen, Gemälde, Gebäude, Tiere - egal was ich will, ich kann das passende Model nehmen und bin nicht (wie es zB bei ChatGPT ist) auf ein Model beschränkt.
Kostet nix weil es OpenSouce ist - Installation ist aber für jemanden der keine Ahnung hat eher „unschön“…
Dh eine lokale Installation von Stable Diffusion ist rechtlich absolut okay und somit ist die Software kostenlos nutzbar.
Wer aber die lokale Installation scheut, der kann auch im Netz SD nutzt, aber dann kostet es halt was…
Einige Beispiele:
Gebäude gehen auch:
Oder Tiere:
Für Finger gibt es Loras oder Negativ-Prompts die die fehlerhaften Finger beseitigen.
Oder mann macht es mit Inpaint und lässt die KI die Finger selbst neu machen…
Aber ja, die meisten Models haben ohne Eingreifen Probleme mit Fingern und Füßen. Manchmal auch Arme/Beine - je nach Pose.