| | Zeit:
25.04.2025 08:39:07 |
Hallo Ich habe viele Fragen erhalten und viele Leute über die Verwendung von ChatGPT bei ihrer Arbeit sprechen hören. Vertrauen in KI-Antworten- Ist es sinnvoll, komplexe energietechnische Fragen an KI-Modelle wie ChatGPT zu stellen, oder sollten Entscheidungen auf verlässlichen technischen Berechnungen und Expertenwissen basieren?
|
| Zeit:
25.04.2025 09:03:58 |
Hab mal Chat GPT gefragt. ;-)
Hier die Antwort:
"Das ist eine sehr gute Frage! ChatGPT kann eine hilfreiche Unterstützung sein, um komplexe energietechnische Fragen zu verstehen, erste Ideen zu sammeln oder Informationen zu recherchieren. Allerdings sollte man sich bewusst sein, dass KI-Modelle wie ich keine spezialisierten technischen Berechnungen durchführen oder Expertenwissen ersetzen können. Für wichtige Entscheidungen, die präzise technische Analysen erfordern, ist es immer ratsam, auf verlässliche technische Berechnungen und das Fachwissen von Experten zurückzugreifen. So kannst du sicherstellen, dass die Entscheidungen fundiert und zuverlässig sind. Wenn du möchtest, kann ich dir gerne bei der Recherche oder beim Verständnis bestimmter Themen helfen!"
|
| Zeit:
25.04.2025 10:01:41 |
Hat ChatGPT denn eine Berufshaftpflichtversicherung?
Mir ist menschliche Intelligenz immer noch lieber.
|
| Zeit:
25.04.2025 10:14:36 |
Also ich kann damit wenig anfangen. Die Antworten sind eher so ne Quermischung aus Google und haben mit "Intelligenz" wenig zu tun. Es fehlen belastbare Quellen und im Detail geprüft sind die Antworten in der Regel nicht passend, falsch oder unvollständig.
Das erreicht nicht mal das Niveau von Bauernschläue, zumal bei technischen Dingen die Antworten in der Regel weder zum Problem, noch zum eigentlichen technischen Produkt gehören.
|
| Zeit:
25.04.2025 10:19:56 |
Hallo, schon die Fragestellung löst bei mir Kopfschütteln aus. Leute habt ihr eueren Verstand irgendwo weggespeert. Man kann diese Seuche vielleicht nutzen um einen Text für eine Grußkarte zu erstellen , aber alles darüber hinaus muß doch vom Normaldenkenden hinterfragt werden. Vielleicht sollten wir das Internetmonster auch die Friedensverhandlungen zu den Weltkriesen führen lassen. Ist den die Menschheit wirklich schon so denkfaul.
|
| Zeit:
25.04.2025 10:27:29 |
Das Problem vom Internet generell ist, dass jeder Spinner irgendwas rein schreiben kann. Das heiß, was man von einer Suchmaschine bekommt ist erstmal nur ne Infosammlung ohne Substanz. Dann muss man schauen, was geschrieben wurde, welche Quelle, dies evtl. nochmal mit anderen Infomöglichkeiten abgleichen, etc. Das ist mit der dünnen Quellenlage von Chat GPT aber kaum möglich.
|
| Zeit:
25.04.2025 10:58:27 |
ChatGPT hat bei eine Test die Prüfungen des bayrischen Abiturs bestanden. Wer kann das hier von sich behaupten? Dunning-Kruger lässt grüßen. Zitat: Die Dunning-Kruger-Studie beschreibt ein psychologisches Phänomen, bei dem Menschen mit geringer Kompetenz auf einem bestimmten Gebiet dazu neigen, ihre Fähigkeiten zu überschätzen. Gleichzeitig unterschätzen kompetentere Personen oft ihre Fähigkeiten.
Kernaussage der Untersuchung: Menschen mit wenig Wissen oder Können fehlt oft nicht nur die Fähigkeit, eine Aufgabe korrekt auszuführen – ihnen fehlt auch die Fähigkeit, ihre eigene Inkompetenz zu erkennen. Dadurch glauben sie fälschlicherweise, besser zu sein, als sie tatsächlich sind.
Umgekehrt erkennen fähigere Menschen, wie viel sie nicht wissen, und neigen deshalb dazu, sich selbst zu unterschätzen.
Beispiel: Ein Anfänger in einem Fach hält sich nach ein bisschen Google-Recherche für einen Experten, während ein echter Experte ständig Zweifel hat, ob er genug weiß, weil er die Tiefe und Komplexität des Themas kennt.
Natürlich sollte man in der Lage sein, die Aussagen eines LLMs auf Korrektheit zu prüfen. Nur sind die meisten Menschen in den meisten Themen nicht Experte genug, um das zu können. Das ist übrigens auch ein Problem bei menschlicher Interaktion. Wenn wir uns in einem Thema nicht auskennen, werden wir oft von selbstsicherem Auftreten des Gegenübers getäuscht.
|
Verfasser: pB | Zeit:
25.04.2025 15:39:22 |
Könnten wir das gesamte AI-Gedöns im Zusammenhang mit "Expertise", oder "Intelligenz" bitte mal gaanz weit beiseite legen und dort still und dauerhaft verotten lassen? Danke. Das sind statistische Modelle - null Intelligenz enthalten. Und wenn die nach Begründungen, oder Herleitungen gefragt werden, lügen sie dir in die Tasche. Das ist einfach der aktuelle Scam, um noch ein paar Leuten das Geld aus der Tasche zu ziehen. Alles, was über das Postkartenschreiben, oder PrOn-Bild-Berechnen rausgeht ist glatter Selbstbetrug. Hier mal ein recht gründlicher Artikel zu den o.g. Argumenten: No progress to AGISo ganz nebenbei: Den 2. Satz von Gödel nicht vergessen!
|
| Zeit:
25.04.2025 16:22:06 |
Zitat von pB  Könnten wir das gesamte AI-Gedöns im Zusammenhang mit "Expertise", oder "Intelligenz" bitte mal gaanz weit beiseite legen und dort still und dauerhaft verotten lassen? … Das sind statistische Modelle - null Intelligenz enthalten. Jetzt wird es interessant. Was macht für dich Intelligenz aus? Wenn statistische Ergebnisse statistisch öfter richtig sind als die Ergebnisse aus Intelligenz der Menschen, bzw. wenn die meisten Menschen mit ihrer Intelligenz nicht bewerten können, ob die statistischen Ergebnisse richtig oder falsch sind, was spielt dann die Art der Entstehung der Aussage für eine Rolle? Der Tuning-Test lässt grüßen.
|
| Zeit:
25.04.2025 16:36:59 |
Turing-Test (blöde Rechtschreibekontroll-„Intelligenz“)
|
| Zeit:
25.04.2025 16:53:47 |
Ich vertrete die Meinung, dass diese Programme KEINE künstliche Intelligenz haben/darstellen, sondern einzig und allein das Ergebnis von intelligenten Algorythmen (welche von sehr intelligenten Menchen ersonnen wurden) kombiniert mit sehr schnellen Internetverbindungen und leistungsfähigen Rechnern (Suchmaschinen) darstellen! Alleine schon die Tatsache dass diese Programme einseitig vorbestimmte Ergtebnisse bzw unerwünschte Ergebnisse (aus Sicht des/der Entwickler) bevorzugen bzw nicht ausspucken macht mir im Bezug auf derartige Programme große Sorgen. So bringt z.B. das Programm Deepseek auf Fragen nach Tienamenplatz und dortige Erreignisse keine Antwort betreffend dortiger Geschehnisse! Staatszensur, Verschweigen von unwiderlegbaren Tatsachen!
|
| Zeit:
25.04.2025 17:04:12 |
|
| Zeit:
25.04.2025 17:17:03 |
Zitat von Benn1904  ChatGPT hat bei eine Test die Prüfungen des bayrischen Abiturs bestanden. Wer kann das hier von sich behaupten?
Du redest schon wieder Unsinn. Bzw. glaubst Du offenbar, was Du irgendwo als Überschrift im Internet gelesen hast, ohne es zu hinterfragen. Wer so vorgeht, glaubt dann eben auch ChatGPT. Eine Studie hat festgestellt, dass englischsprachige Aufsätze von ChatGPT von Lehrern durchschnittlich besser bewertet werden als entsprechende Aufsätze von echten Schülern. Das wiederum ist nicht so erstaunlich, wenn man bedenkt, dass dabei Sprachbeherrschung ein wesentliches Kriterium ist. Ich bleibe dabei: MIt ChatGPT irgendwas belegen zu wollen ist völlig unsinnig. Das ist wie mit Internetforen. Man kann sich bei ChatGPT Anregungen holen. Man kann seine Behauptungen und Zahlen und Rechnungen durch vernünftige Quellen verifizieren. ChatGPT blind irgendwas zu glauben ist dagegen nicht sonderlich schlau. Grüße Martin
|
| Zeit:
25.04.2025 17:31:28 |
|
| Zeit:
25.04.2025 17:59:49 |
Zitat von Hannes/esbg  Ich vertrete die Meinung, dass diese Programme KEINE künstliche Intelligenz haben/darstellen, sondern einzig und allein das Ergebnis von intelligenten Algorythmen (welche von sehr intelligenten Menchen ersonnen wurden) kombiniert mit sehr schnellen Internetverbindungen und leistungsfähigen Rechnern[...] Nein, leider sind das weniger intelligente Algorithmen sondern ganz ganz viel Training. Und da gehen die Probleme los. Die AI Leute haben schon alles was sie legal und illegal bekommen konnten verarbeitet.
|
Verfasser: pB | Zeit:
25.04.2025 18:21:16 |
Hi Benn,
liest du eigentlich, was andere zu einer Diskussion beitragen?
|
| Zeit:
25.04.2025 19:13:08 |
Was ist die Intention des TO? Das würde ich als erstes fragen. Beobachte das aktuell in mehreren Foren, das neue User solche Themen aufbringen und dann nicht mehr gesehen werden.
ChatGPT findet das verdächtig.
Und zum Thema an sich. Nein, einer KI kann man nicht trauen. Wobei es ja auch keine KI ist, sondern nur ein Sprachmodell. Aber man kann damit tatsächlich erstaunliche Dinge machen. Man muss die Grenzen kennen und wissen wie man es anwendet. Wie bei jedem Werkzeug.
|
| Zeit:
25.04.2025 22:14:31 |
Zitat von pB  Hi Benn,liest du eigentlich, was andere zu einer Diskussion beitragen? Meinst Du mit „andere“ deine Beiträge? Bewerte sie mal selber, ob sie glaubwürdiger klingen als die von Anderen.
|
Verfasser: pB | Zeit:
25.04.2025 22:46:46 |
Was denkst du, was ich meinen könnte?
Und warum sollten deine Beiträge glaubwürdiger sein, als andere?
Und warum unterhalten wir uns bei einem Gespräch über Intelligenz (das soll es ja wohl sein) über Glauben?
|
| Zeit:
26.04.2025 08:27:10 |
Zitat von pB  Und warum unterhalten wir uns bei einem Gespräch über Intelligenz (das soll es ja wohl sein) über Glauben? Weil jemand (übrigens nicht ich) versucht hat KI über den Begriff Intelligenz zu erklären. Soll man ihn jetzt auch über Glauben erklären? (Das ist übrigens nicht identisch mit glaubwürdig) Schon mal über dein persönliches Dunning-Kruger-Profil nachgedacht?
|
Verfasser: pB | Zeit:
26.04.2025 10:08:40 |
He Benni,
solltest du hier versuchen wollen ad hominem zu kommen, und weiterhin NULL inhaltlich beiträgst, können wir das gerne lassen.
|
| Zeit:
26.04.2025 18:52:40 |
Nur weil ein US Bürger das englische Wort intelligence benutzt, muss da noch lange nichts mit Intelligenz dahinter stehen. Aktuell kann man diesem rein reproduzierenden Sprachprogrammen nur zusichern, dass sie in den Augen derer, die einen angeblich intelligenten Präsidenten gewählt haben, vermutlich recht intelligent erscheinen, da heisst jedoch nicht dass sie es auch sind. Darin liegt ja gerade die Gefahr, obwohl auf Regeln basierend und mit Kanonen auf Spatzen schießen diese NN mit Unmengen an Daten "trainiert" werden, verstehen die Macher nicht wirklich, was darin passiert. Nehmen wir das mal als Kreativ-Faktor positiv an, so benötigt es dennoch INTELLIGENTE Menschen, zu unterscheiden, wo das LLM "Wahrheit" ausgibt oder "Halluzination". Allein die Wortwahl der Beteiligten, dies beschönigend als Halluzination zu bezeichnen, anstatt als Müll, lässt erkennen wie hier der Mitmensch auf DonaldDumb Niveau verkohlt wird. Doch halt, der kann ja vielfach das Eine nicht vom Anderen unterscheiden - das gleiche Dilemma wie an der Wahlurne.... So verführerisch faszinierend diese Spielzeuge derzeit auch sein mögen, umso realistischer muss die Erkenntnis folgen, das da KEINE Universal-Intelligenz drinsteckt. Als Werkzeug muss es noch beweisen, dass der einhergehende Resourcenverbrauch auch gerechtfertigt ist - Kohlestrom ist noch zu billig.
|
| Zeit:
07.05.2025 09:38:00 |
| Zeit:
08.05.2025 04:46:27 |
die hw kostet einen haufen geld. und der energieverbrauch so eines clusters ist immens.
|
Verfasser: pB | Zeit:
08.05.2025 07:19:05 |
Machst du jetzt den Nachfolger für Ben
- mit weiteren Inhaltsleeren, nicht-informativen Allgemeinplätzen
- Hauptsache du hältst die Links für deine Scamseite oben (die Werbung oben habe ich löschen lassen)
- mit der du (mehrere) andere Foren zukleisterst?
Oder kommen gegen meine o.g. Argumente noch irgendwelche harten (!) Fakten, über die es sich zu Reden lohnte?
----
Sehe gerade - Du hast ja angefangen.
Was aber an meinem Post inhaltlich nix ändert.
|