固定されたツイート
TOLLA ★ bea beste
56K posts

TOLLA ★ bea beste
@TOLLABEA
Edupreneur l Mom | ewiges Kind l Schulgründerin l Markenexpertin & Coach | Personal Branding Masterclasses BeBest at being YOU
Berlin, Germany 参加日 Mart 2012
828 フォロー中6.2K フォロワー

Vor 14 Jahren war diese starke Marke, die sogar ein eigenes Verb hatte: Twitter. Und twittern.
Die hat mich damals bezaubert.
Ich vermisse sie. Ihr auch?
#MeinXJubiläum ist für mich als Markenexpertin immer noch #MeinTwitterJubiläum.

Deutsch

Ich habe jetzt schon länger nicht mehr hier gepostet.
Heute einfach: #Danke an alle Dienst-Leister❣️

Deutsch
TOLLA ★ bea beste がリツイート

Wir müssen über KI/LLMs in der IT reden.
Ich bin selbst großer Fan und nutze ChatGPT, GitHub Copilot und M365 Copilot privat wie beruflich sehr intensiv. Und genau da beginnt das Problem: Ich bilde mir ein, relativ gut einschätzen zu können, was LLMs leisten können – und vor allem, was nicht.
Viele andere können das nicht. Das merke ich regelmäßig, wenn Incidents oder Changes aus dem 1st/2nd Level bei mir landen. Ich schaue dann oft rein, was schon probiert wurde – und sehe immer wieder essentielle Fehler, die einfach nicht passieren dürfen.
Nicht, weil jemand „dumm“ ist. Sondern weil LLMs sehr überzeugend klingen, selbst wenn sie gerade Quatsch erzählen.
Ein Beispiel aus meinem eigenen Alltag: Ein LLM hat mir einen „Lösungsansatz“ vorgeschlagen, bei dem interne Dienste aus meinem Homelab via Reverse Proxy ins Internet gestellt worden wären. Alle Informationen, um das als Risiko zu erkennen, waren vorhanden – trotzdem wurde es nicht erkannt. Wer in so einem Moment nicht sauber bewertet, nicht nachdenkt oder die Basics nicht beherrscht, setzt sich (oder Kunden) einem realen Sicherheitsrisiko aus. Und ja: Das passiert schneller, als man glaubt.
Warum ist das so?
LLMs lernen aus dem, was es im Netz gibt. Und wer lange genug in der IT unterwegs ist, kennt das: halbgare Forum-Posts, Workarounds ohne Kontext, „bei mir geht’s“-Antworten, die in einer anderen Umgebung brandgefährlich sind. Das Modell kann oft nicht zuverlässig beurteilen, ob eine Lösung robust, sicher, aktuell und für deinen Kontext geeignet ist. Je spezifischer das Problem, desto höher die Chance, dass es nur ein paar dünne oder alte Quellen gibt – und das Modell daraus eine Antwort „zusammenbaut“, die technisch plausibel klingt, aber fachlich nicht trägt.
Die eigentliche Gefahr ist für mich nicht „KI macht Fehler“. Die eigentliche Gefahr ist: Menschen verlernen das Denken.
Ausgaben werden ungefiltert in Shells oder Produktionssysteme gekippt, weil sie gut klingen – nicht weil sie verstanden wurden.
Natürlich bringen LLMs auch echten Mehrwert: neue Perspektiven, schnellere Recherche, bessere Struktur, Ideen, auf die man selbst nicht gekommen wäre. Aber (Stand heute) sind sie Werkzeuge – keine Gehirnersatzteile. Wer das verwechselt, bekommt nicht "mehr Produktivität", sondern "mehr Risiko in kürzerer Zeit".
Und dann gibt’s noch Level 2: Kunden, die alles, was ein LLM ausspuckt, für gottgegeben halten.
Ich hatte neulich einen Change mit exakt dem Inhalt: "Bitte so umsetzen" – plus Link zu ChatGPT und dem Prompt: "kann ma winget per policey ausschalten". Die Antwort war voller Fehler, teils veraltete Intune-Settings, keinerlei Reflexion, warum man das überhaupt möchte, was das für Konsequenzen hätte, und keine Alternativen. Und trotzdem war die Erwartung: Das möchte ich so umgesetzt haben!.
Noch besser: Aussagen von mir werden durch ein LLM gejagt, die LLM-Antwort wird pauschal über meine gestellt – und ich darf mich dann rechtfertigen, warum "die KI" danebenliegt. Das ist inzwischen wirklich anstrengend. Je weniger IT-Verständnis vorhanden ist, desto konfuser wird es.
Fazit:
LLMs sind ein Turbo. Aber ein Turbo ersetzt weder Lenkrad noch Bremsen. Wer genug Fachwissen hat, kann damit schneller und besser arbeiten. Wer es nicht hat, fährt mit Vollgas in den Graben – und wundert sich dann, warum die Karre brennt.
Die wichtigste Fähigkeit in der IT wird nicht "Prompten" sein, sondern Bewerten: Kontext verstehen, Risiken erkennen, Quellen prüfen, Änderungen begründen – und im Zweifel auch mal sagen: "Nein, das machen wir so nicht."
Deutsch

Wie es einige vielleicht mitbekommen haben, bin ich seit November 2025 Autor beim #SPIEGEL. Ich teste Küchengeräte und es gibt auch Rezepte. Hier geht es zu den Beiträgen, die bisher von mir veröffentlicht wurden. Keine Paywall:-)
spiegel.de/impressum/auto…
#HerrGruenkocht

Deutsch

Reflexionsfragen:
- Wann warst du stolz, und hast es nicht gezeigt?
- Wer hat dir gesagt, du seist „zu viel“?
- Welche Stärke versteckst du heute noch?
Warum frage ich?
Ich habe mich inzwischen dem Thema #PersonalBranding gewidmet und biete Masterclasses an.
Deutsch


