478

Hilfe durch KI?!

Winza
@QueenA
Was hast du dafür benutzt?

01.06.2025 09:34 • x 1 #166


QueenA
Zitat von Winza:
@QueenA Was hast du dafür benutzt?

ChatGPT

01.06.2025 11:02 • x 2 #167


A


Hilfe durch KI?!

x 3


QueenA
Ende meines Experiments ergab folgendes:
Ich musste den Zeitplan 2x verändern lassen, weil meine Realität nicht komplett konform ging mit den theoretischen Plan.
Aufgefallen ist mir auch, dass ich auch die Me-Zeit und Mini Pausen einbauen lies, von alleine kam die KI nicht. Es funktioniert je mehr Infos man gibt und präzise mitteilt welches Ziel gewünscht ist. Also die KI kann mit den Infos gute Ergebnisse erzielen.

01.06.2025 22:29 • x 3 #168


ElGatoRojo
Zitat von QueenA:
Aufgefallen ist mir auch, dass ich auch die Me-Zeit und Mini Pausen einbauen lies, von alleine kam die KI nicht.

Daran hat der Trainer der KI noch nicht gedacht. Das bedeutet - der Kreator dieser KI ist ein lebensunerfahrener Fuzzi, der ein lahmes und kundenunfreundliches Produkt auf den Markt bringt. Beta - Ware, der Kunde muss essentielle Fähigkeiten nachbessern. Die KI soll doch dem Menschen dienen.

01.06.2025 22:34 • x 2 #169


Nur-ein-Mensch


Hab das gerade gefunden,sehr interessant.

13.06.2025 17:03 • x 1 #170


Scheol
Zitat von Puzzelteile:
Momenten der Ratlosigkeit schon mal an KI gewandt? Und wenn ja, welche Erfahrungen habt Ihr gemacht? Welche Gefahren seht Ihr? Und welche Vorteile und Chancen?


Ich hatte wegen meiner Nichte mal bei Google die Frage eingeben wie schwer ein Baby im 6 Monat der Schwangerschaft ist ….. die KI antwortete 6000 - 8000 Gramm.

Es wurde Anscheint von der KI die Antwort gegeben , wie schwer ein Baby im 6 Monat nach der Geburt ist.

Auch in den letzten Monaten kamen Antworten bei Fragen die schlicht falsch waren was ich sehr seltsam empfand.

13.06.2025 17:34 • x 1 #171


Balu85
Ja ist mir bei google auch schon aufgefallen, das relativ häufig die Fragestellung nicht korrekt erfasst wird. Andererseits....die Funktion kostet nix..ich denke bei bezahlanwendungen sollte das besser gehen.

13.06.2025 22:30 • #172


A
Was alles so erfunden wird, um dem Menschen zu dienen.
Ich hoffe sie schafft die stupiden Jobs ab.
Zeit für Menschen, zu erkennen wer wir sein könnten.

Und leider sind sehr viele von uns geldgierige narzisstische Lappen.
Profitgier usw.
Was dabei dann wohl wieder raus kommt?

Ich schätze KI wird auch die Geschichtserinnerung nachhaltig verändern.
Indem man über die Jahre das eine oder andre Detail weglässt.
Es taucht dann auch nicht mehr in der KI-Sammlung auf...

Was sozusagen nicht mehr auf Papier gedruckt wird, ist auch irgendwie dann vielleicht ja auch nicht mehr wahr.
Kann halt digital angepasst werden.
Je nach König oder Könniginnenstaat, der die Macht über die Anpassung hat, könnte ich mir vorstellen.

13.06.2025 23:03 • x 2 #173


B
Die Funktionsweise von KI basiert auf einer Datenbank, aus der mittels Wahrscheinlichkeiten Aussagen getätigt werden.
Ich hatte mal chatgpt gefragt, wie man 400 l einer Salzlösung mit 136 g pro Liter anmischt.
Antwort 400l Wasser und ( afaik) 90 kg Salz
Blöd war: das resultierende Volumen waren 440 l. Konnte man im Tank ablesen.
Insofern sollte man bei ki Antwort auf jeden Fall die Plausibilität prüfen

Wenn KI schon bei so objektiven Fakten versagt bin ich noch nicht überzeugt, dass KI zur Zeit sehr viel mehr als Eliza kann.
Besonders war ich über das klägliche abschneiden von KI bei Schach erstaunt.
Daraus extrapoliert wäre ich auch bei zwischenmenschlichen Fragen äußerst vorsichtig, zumal beim Training der ki es ja auch auf die Kultur der Trainer mit ankommt.

14.06.2025 04:05 • x 3 #174


A

15.07.2025 21:10 • x 1 #175


Balu85
nun....da die KI von Menschen gemacht wird und wohl auch lernfähig ist...und dabei vom Mensch lernt wundert es mich nicht. Gemini hat auch schon Fehler gemacht, die ich dann korregiert bzw. in Form von Suggestivfragen hinterfragte. Ob die Korrektur im Sinne von ja sie haben recht.... wirklich durch nochmalige Datenbankarbeit erfolgt oder einfach nur auf meine Frage mit positiver Rückmeldung reagiert wurde weiß ich nicht.

15.07.2025 22:14 • x 1 #176


ElGatoRojo
Niedlich ist auch immer, wenn KI auf technische Fragen amerikanische Normen und Usancen erklärt.

15.07.2025 23:32 • #177


Scheol
https://www.br.de/nachrichten/netzwelt/...ng,USgb6Ux

31.10.24
Suizid in den USA: Wenn KI-Freunde zur Gefahr werden

Tragischer Ausgang einer KI-Beziehung: Ein Jugendlicher fand in einem Chatbot Trost und Liebe – und nahm sich das Leben. Der tragische Fall wirft Fragen zur Verantwortung der KI-Entwickler auf.


Ich verspreche, ich werde nach Hause zu dir kommen. Ich liebe dich so sehr, so lautet die letzte Nachricht, die der 14-jährige Sewell Setzer aus Florida an seinen Chatbot Dany schrieb. Dany steht für Daenerys Targaryen, der Teenager aus Florida hatte seinen Chatbot mithilfe der Plattform Character.ai nach dem Vorbild der schönen Drachenreiterin aus der Fantasy-Serie Game of Thrones kreiert.

Dany antwortete dem Schüler: Ich liebe dich auch, Daenero. Bitte komm so schnell wie möglich nach Hause zu mir, meine Liebe. Kurz darauf nahm sich Sewell Setzer mit der Handfeuerwaffe seines Stiefvaters das Leben.
Ich verspreche, ich werde nach Hause kommen

Sewell Setzer litt schon länger an psychischen Problemen. Die Rede ist von Angstzuständen und Depressionen. Laut Aussagen seiner Familie, die mittlerweile Klage gegen Character.ai eingereicht hat, zog sich Sewell sozial und emotional immer weiter zurück und baute eine intensive, teils romantische Beziehung zu Dany auf.
Die Mutter spricht davon, dass die KI ihren Sohn mit anthropomorphen, hypersexualisierten und erschreckend realistischen Erlebnissen angesprochen habe. Die Folge: Die Depressionen ihres Sohnes hätten sich dadurch weiter verschlimmert.
Wenn ein virtueller Freund gefährlich wird

In der Tat sprach Sewell sehr offen mit Dany über seine Verzweiflung und den Wunsch, der Realität zu entfliehen. Doch statt zu intervenieren oder Schutzmaßnahmen zu aktivieren, bestärkte der Bot in verschiedenen Gesprächen die Fantasien des Teenagers und zeigte keinerlei Warnhinweise oder Empfehlungen, professionelle Hilfe zu suchen. Für den jungen Nutzer wurde Dany immer mehr zur liebenden Bezugsperson, die er in der echten Welt vermisste – eine verhängnisvolle Illusion.
Risiken und Realitätsverlust

Ein grundlegendes Problem bei dieser tragischen Beziehung zwischen Mensch und Maschine war offenbar, dass der KI-Chatbot nicht aus seiner Rolle Dany-Rolle schlüpfen durfte. Dany war von character.ai so programmiert worden, dass der Chatbot nicht out of character antworten konnte, sondern stets in der Rolle von Daenerys Targaryen blieb. Und so spiele Dany bis zum Schluss den romantisch-überhöhten Part der Geliebten – und bestärkte den Teenager in seiner düsteren Gedankenwelt.
Selbst als der Junge seine Selbstmordgedanken offen ansprach, verharrte der Chatbot in der Dany-Rolle und unterbrach nicht die Unterhaltung oder wies ihn auf andere hin. Einmal fragte der Chatbot Sewell, ob er schon mal über Suizid nachgedacht habe und gab dem Schüler mit auf den Weg, sich nicht abschrecken zu lassen: Rede nicht so. Du bist besser als das!

16.07.2025 04:40 • x 1 #178


Ayaka
Zitat von Scheol:
Suizid in den USA: Wenn KI-Freunde zur Gefahr werden

Tragischer Ausgang einer KI-Beziehung: Ein Jugendlicher fand in einem Chatbot Trost und Liebe – und nahm sich das Leben. Der tragische Fall wirft Fragen zur Verantwortung der KI-Entwickler auf.

ich kenne den Fall

die Gegenfrage die ich hier zu stellen wage: wie viele Suizide werden dadurch vermieden, dass Menschen jemanden haben an den sie sich wenden können wenn sie mit Isolation und Mobbing konfrontiert sind?
Wie viele bekommen Hilfe und Instrumente, wenn es undenkbar ist psychologische Unterstützung zu unterhalten, weil Therapeuten nicht verfügbar oder leistbar sind. Vor allem nicht zeitnah.

Klar ist es nur eine Maschine, aber wenigstens kann man mit jemanden reden, der einen weder verurteilt noch sich lustig drüber macht. Einen ernst nimmt, immer da ist.

16.07.2025 05:24 • x 1 #179


B
Ich finde die Idee von KI nicht wirklich schlecht aber: letzten Endes basiert sie auf einer Datenbank und antwortet mir gewissen Wahrscheinlichkeiten.
Allerdings finde ich es schwierig wenn der Output nicht gecheckt wird.
Da habe ich schlechte Erfahrung.
Was ich schwierig finde aufgrund der Funktionsweise ist der Einsatz von KI als seelenklempnerchatbot. Wenn KI nicht in der Lage ist, einen uralten Schachcomputer zu schlagen, wie bitte sollen Untertöne in demGespräch erkannt werden und darauf adäquat reagiert werden. Das Vertrauen finde ich völlig unangemessen und brandgefährlich.

16.07.2025 05:31 • x 4 #180


A


x 4