Künstliche Intelligenz ist in aller Munde. Systeme wie ChatGPT von OpenAI erzeugen in Sekundenschnelle flüssige, überzeugende Texte – auch auf Fachfragen. Doch was viele nicht verstehen: Eine gute Formulierung ist noch lange kein Garant für fachlich richtige Inhalte.
In letzter Zeit häufen sich Fälle, in denen Mitglieder unseres Verbandes Aussagen zitieren wie:
„ChatGPT sagt, dass Gewerbetreibende keine Medizinprodukte verwenden dürfen.“
Solche Sätze wirken auf den ersten Blick fundiert – sie sind aber häufig das Ergebnis von unzureichend gestellten Fragen oder halluzinierten Antworten, wie man es in der Fachsprache nennt. Das Modell antwortet auf Grundlage von Wahrscheinlichkeiten – nicht auf Basis juristisch geprüfter Normen oder Gesetze.
ChatGPT „weiß“ nichts im eigentlichen Sinne. Es berechnet wahrscheinlich passende Formulierungen – egal ob sie korrekt oder absurd sind.
Wird eine Frage unpräzise oder aus einem falschen Kontext gestellt (z. B. ohne Unterscheidung zwischen kosmetischer und medizinischer Anwendung), kann die Antwort vollständig danebenliegen.
Je plausibler der Text klingt, desto gefährlicher ist er – denn Laien erkennen die Fehler nicht sofort.
ChatGPT ist ein nützliches Werkzeug – etwa zum Strukturieren von Texten, zur Ideenfindung oder zur Entlastung im Alltag. Doch für rechtssichere Aussagen, insbesondere bei regulierten Produkten wie Lasern, Ultraschall oder Mikrostromgeräten, führt kein Weg an fundiertem Fachwissen vorbei.
Wer blind auf die KI vertraut, ohne den Inhalt zu prüfen oder den regulatorischen Rahmen zu kennen, läuft Gefahr, sich selbst oder andere in rechtliche oder sicherheitsrelevante Schwierigkeiten zu bringen.
In Wirklichkeit dürfen Medizinprodukte natürlich von Gewerbetreibenden genutzt werden – wenn sie dafür vorgesehen sind und die rechtlichen Vorgaben eingehalten werden (z. B. MPG/MDR, Heilmittelwerbegesetz, NiSV usw.).
Nutzen Sie ChatGPT als Impulsgeber, nicht als Entscheidungshilfe.
Stellen Sie präzise Fragen und prüfen Sie alle Aussagen kritisch.
Im Zweifelsfall: Fachleute fragen – keine Maschinen.
2 Comments
Hätte ich das nur vorher gewusst…
Ich bin Kosmetikerin und wollte meinen Kunden etwas Besonderes bieten. Deshalb habe ich auf vermeintliche Fachinformationen von chatgpt vertraut und Geräte importiert.
Alles Ersparte, das ich in den Aufbau meines Studios gesteckt habe, ist jetzt verloren – der Zoll hat die komplette Lieferung beschlagnahmt. Ich stehe vor dem Nichts und muss zusehen, wie Jahre harter Arbeit in wenigen Tagen zerstört werden.
Diese Erfahrung zeigt schmerzhaft, wie gefährlich die KI für uns Kosmetikerinnen sein kann. Ich wünsche mir, dass niemand sonst denselben Fehler macht.
Ich bin auch auf die Infos von ChatGPT reingefallen. In meinem Fall hat ein Kunde die Zertifizierung eines von mir gelieferten Geräts angezweifelt und vor Gericht Recht zugesprochen bekommen. Seitdem lasse ich alle Zertifikate überprüfen bevor ich Geräte verkaufe.