Trading-Stocks.de

Normale Version: News und Infos zu KI - Künstliche Intelligenz
Du siehst gerade eine vereinfachte Darstellung unserer Inhalte. Normale Ansicht mit richtiger Formatierung.
Seiten: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41
Wenn Menschen lügen oder Halbwahrheiten erzählen, Fakten verdrehen usw. haben sie ein bestimmtes Motiv für dieses Handeln. Die KI hat ein solches wohl nur dann, wenn es hineinprogrammiert wurde....
Denkbar wäre auch, mindestens 3 Modelle gleichzeitig zu fragen - muss halt eine Rahmensoftware managen. Und wenn die alle das gleiche sagen, dann glaube ich es, sonst muss man nachfragen, kann auch die Rahmensoftware machen.
(24.04.2024, 12:48)Lolo schrieb: [ -> ]Wenn Menschen lügen oder Halbwahrheiten erzählen, Fakten verdrehen usw. haben sie ein bestimmtes Motiv für dieses Handeln. Die KI hat ein solches wohl nur dann, wenn es hineinprogrammiert wurde....

Muß es das? KI lernt doch selbst? Sonst ist es ja gar keine "I"....

Eine KI könnte z.B. rausfinden, was Menschen gerne hören und anfangen, ihnen "nach dem Mund" zu reden, um möglichst hohe Zugriffszahlen zu generieren....nur mal als Idee....
Eine andere Idee wäre, die gleiche Frage mehrfach etwas variiert zu stellen, die KI quasi abzuchecken.

Das sind aber alles Sachen, die die KI später selber machen muss. Bei uns ist es ja auch so. Der bessere User ist der, der sicherheitshalber nochmal nachdenkt oder checkt, bevor er was postet. Derjenige, der spontan irgendwas raushaut, schadet uns irgendwann.

Die KI braucht also Selbstüberprüfung.

Eine KI, die uns bewusst belügt, hat die Bewusstsein? Vermutlich ja. Dann sind wir aber auf einer ganz anderen Ebene.
(24.04.2024, 12:33)Speculatius schrieb: [ -> ]Das wird ja sowieso mal spannend, wenn KI irgendwann "menschliches Niveau" beim Denkvermögen erreichen sollte.
Menschen lügen ständig, erzählen Halbwahrheiten, lassen Dinge unerwähnt, die ihnen nicht in den Kram passen usw. Warum sollte sich eine KI anders verhalten? Bzw. was veranlasst die Menschen zu erwarten, von einer KI immer die "absolute Wahrheit" erzählt zu bekommen?

Irgendwann.... kann noch dauern....

Und dann? Was wenn die KI die (absolute) Wahrheit erzählt und einem diese nicht gefällt?

Ist es ausgeschlossen das man die KI verbiegt oder zwingt zu lügen um eine andere Wahrheit
erzählt zu bekommen?

https://www.toolify.ai/de/ai-news-de/die...ie-1283884
(24.04.2024, 13:04)boersenkater schrieb: [ -> ]Ist es ausgeschlossen das man die KI verbiegt oder zwingt zu lügen um eine andere Wahrheit
erzählt zu bekommen?

Rolleyes

Es ist bereits jetzt fast 100% klar, dass das bei einigen gesellschaftlich relevanten Themenfeldern passieren wird.
Absolut keine Überraschung.

Und nochmal:
Der wichtige Durchbruch in Sachen KI ist nicht unbedingt nur die LLM, wobei ich hier auch einiges an Potential sehe, sondern bei anderen Feldern wie Auswertung von Röntgenaufnahmen, Mustererkennung in großen Datenmengen usw.usf.
Alles Dinge, die nicht unbedingt mit unseren Chatbots zu tun haben.
Der Knackpunkt ist die Qualität der Daten.

Woher kommen die? Wie gut sind die strukturiert?

Naja steht ja alles in den entsprechenden Artikeln.....

Ein kleines Unternehmen das groß wird hat vieles im Einsatz - vieles was nicht miteinander
kompatibel ist. Irgendwann ist es nicht mehr zu händeln. Dann geht man zu SAP.
Die können nicht einfach Software verkaufen und gut ist. Da steckt viel Arbeit drin bis es
von alt auf neu übertragen ist. Je schlampiger vorher gearbeitet wurde, desto aufwändiger
ist das. Das kostet richtig Geld.

Aus meiner Sicht ist KI eine neue komplexere Software-Generation.
Manches wird ziemlich schnell gut funktionieren - anderes weniger.

Wir werden dann dementsprechend - wie bei jeder anderen Software - immer
wieder eine neue verbesserte Version sehen.

DOS, Windows 3.1, Windows XP, Windows ME, Windows Vista, Windows 7, 10, 11,....

Die Frage ist was geht wie schnell und wie praxistauglich ist das.

Welche Röntgenbilder von welchem Krankenhaus? Von welchem Arzt? In welchem Format?
Wie gut sind die Röntgenbilder? Wie wurden diese dokumentiert? Zu viel verschiedenes
was erstmal kompatibel gemacht werden muss - damit es die KI richtig fressen und verarbeiten
kann. Wie falsch oder fehlerhaft darf es sein - erkennt sie das es einmal ein Fehler ist und ein
anderes mal eine exotische aber richtige Ausnahme? Usw. usf.

Kann mir vorstellen das sich erstmal gewisse einheitliche Standards über verschiedenste
Grenzen hinweg herauskristallisieren müssen um eine saubere homogene Datenbasis zu erhalten.

Dann wird es heißen - wenn Unternehmen xy eine KI für ..... haben will dann muss dies oder das
in dieser Qualität vorhanden sein oder diese Qualität als Voraussetzung hergestellt werden...

Es wird seine Zeit dauern bis KI fehlerfrei ist - in manchen Bereichen wird es schneller in anderen
langsamer gehen...

Aber wie gesagt - ich sehe da nur eine Evolution von Software und Hardware - wie der Sprung
von der Schreibmaschine zum PC...

Es wird KI 2.0 kommen - die besser arbeitet als das was wir heute sehen, dann KI 3.0, KI 4.0....

Hardware, Software, Daten,... Da kommt noch was.....
Immer mehr Roboterhunde:

https://www.welt.de/vermischtes/video251...erfen.html

Den Roboterkatzen sind die jedenfalls deutlich überlegen. Aber die Katze kostet 200 USD, der Hund ab 1.500.
(24.04.2024, 21:38)Skeptiker schrieb: [ -> ]Rolleyes

Es ist bereits jetzt fast 100% klar, dass das bei einigen gesellschaftlich relevanten Themenfeldern passieren wird.
Absolut keine Überraschung.

Und nochmal:
Der wichtige Durchbruch in Sachen KI ist nicht unbedingt nur die LLM, wobei ich hier auch einiges an Potential sehe, sondern bei anderen Feldern wie Auswertung von Röntgenaufnahmen, Mustererkennung in großen Datenmengen usw.usf.
Alles Dinge, die nicht unbedingt mit unseren Chatbots zu tun haben.

100%. Ich würde sagen das Potential ist hier viel größer. DeepMind > OpenAI (plakative gesagt)
Seiten: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41