Home Führung Nehmen Sie Kontakt mit der wachsenden KI auf ~ Stratus Technologies Japan, President’s Blog vol.30

Nehmen Sie Kontakt mit der wachsenden KI auf ~ Stratus Technologies Japan, President’s Blog vol.30

Deutlich verbesserte Genauigkeit der Übersetzungstools

「先週、山口と広島に行った。」 und 「先週、山際と広島に行った。」
Bis vor kurzem konnten Übersetzungsprogramme diese beiden Sätze nicht sehr gut unterscheiden und übersetzen. Der erste Satz lautet: “Ich war letzte Woche in Yamaguchi und Hiroshima.” Der zweite Satz sollte mit “Yamagiwa und ich waren letzte Woche in Hiroshima” übersetzt werden. Nun übersetzen Übersetzungstools auch so. Das vorherige Übersetzungsprogramm übersetzte den zweiten Satz jedoch noch vor 3-4 Jahren mit “Ich war letzte Woche in Yamagiwa und Hiroshima”.
Ich verwende Google Translate und ein anderes Übersetzungsprogramm namens DeepL. Heutzutage verwende ich hauptsächlich letzteres. Früher habe ich meine eigenen englischen Sätze ins Japanische übersetzen lassen und dann die fertigen Sätze überprüft, um zu sehen, ob der englische Originalinhalt verständlich war. Ich habe nicht viele Übersetzungen japanischer Sätze ins Englische verwendet, da ich dem japanischen Leseverständnis des Übersetzungstools nicht traute. In letzter Zeit habe ich mir jedoch japanische Sätze ins Englische übersetzen lassen, und ich war beeindruckt von den cleveren Ausdrücken im Englischen, auf die ich allein nicht gekommen wäre. Als Entwurf gibt es überhaupt keine Beschwerden. Die Genauigkeit von Übersetzungstools hat sich dramatisch verbessert.
Ich benutze das Tool DeepL schon lange wegen seines “Algorithmus, der Übersetzungssätze nach Vokabeln, Redewendungen und Phrasen durchsucht, um die besten Übersetzungsbeispiele abzuleiten”, und wegen seines “riesigen Datensatzes”. Es scheint, dass die aktuelle Version durch zahlreiche Verbesserungen des neuronalen Netzwerks, das die Grundlage bildet, vervollständigt wurde, wobei eine solche Basis genutzt wird. Als KI-Übersetzungswerkzeug kann man sagen, dass es sehr vollständig ist.

ChatGPT: Natürliche Sätze, aber auch falsche Antworten

ChatGPT ist eine der meistdiskutierten KI-Technologien der letzten Zeit. “Chat” ist, wie Sie wissen, eine Echtzeit-Konversation im Internet. Wenn Sie zum Beispiel auf unsere Website zugreifen, erscheint ein Chatbot auf Ihrem Bildschirm und beantwortet im Gespräch Fragen zu unseren Produkten und Dienstleistungen. “GPT” ist ein Akronym für Generative Pre-Trained Transformer und ist ein Modell, das im Voraus lernt und selbständig neue Sätze generiert. Es wird gemeinhin als generative KI bezeichnet. Bislang gibt es viele KI-Assistenten, wie die oben erwähnten Chatbots, die ein vorgegebenes Muster von “antworte so, wenn du so gefragt wirst” haben. ChatGPT hingegen sucht aus einer riesigen Menge online verfügbarer Informationen die für Antworten geeigneten Inhalte heraus und erstellt daraus natürliche Sätze.
Wäre ChatGPT ein Mensch, wäre er zum Beispiel jemand, der selbstbewusst ist und auf Fragen so tut, als wüsste er alles. Auf Anfrage erstellt das Tool sofort natürliche und flüssige Sätze entsprechend der Anfrage. Es kann Sätze übersetzen und zusammenfassen und sogar Code für Computerprogramme generieren, aber es kann auch ruhig das Falsche beantworten. Es ist ganz natürlich, ruhig zu sein. Das Tool ist ein Computer, also gibt es keine Aufregung in seinem Herzen. Viele meiner Bekannten spielen mit ChatGPT, indem sie sie dazu bringen, falsche Antworten zu geben und ihre Inhalte zu teilen. Außerdem stellt ChatGPT die Materialien, auf denen die Antworten basieren, nicht zur Verfügung, und es besteht die Gefahr einer Urheberrechtsverletzung.

Wie benutzt man ChatGPT?

Wenn man ihm eine Aufgabe stellt oder eine Frage stellt, sammelt ChatGPT in kurzer Zeit so viele Informationen wie möglich und erklärt sie in natürlichen Sätzen. In letzter Zeit scheint es eine Diskussion darüber gegeben zu haben, ob es als Grundlage für Fragen und Antworten im Landtag verwendet werden kann, und ich war ein wenig überrascht. Das liegt daran, dass ChatGPT nicht zögern wird, Ihnen falsche Antworten zu geben. Um die Arbeit der Bürokraten zu reduzieren und effektive Diskussionen zu führen, wäre es eine Abkürzung für die Mitglieder des Landtags, ein wenig mehr selbst zu lernen.
Ich denke, dass das Tool sehr nützlich für Universitätsstudenten sein wird, um Berichte für Hausarbeiten zu erstellen. Die Studierenden müssen sich jedoch des Risikos bewusst sein, dass die von ChatGPT generierten Sätze Lügen enthalten können. Es ist wichtig, sie mit einem kritischen Auge zu überprüfen und sie entsprechend zu korrigieren. Da die von Ihnen eingegebenen Fragen und die von Ihnen gegebenen Anweisungen gespeichert und gelernt werden, besteht außerdem die Gefahr, dass Informationen, die Sie nicht preisgeben möchten, wie z. B. persönliche Daten, durchsickern. ChatGPT ist wirklich flüssig und erstellt Sätze, die wie korrekt aussehen, und es ist wahrscheinlich, dass es zu guten Noten führt, weshalb Studenten nicht aufhören können, es zu benutzen. An Universitäten wird es schwierig sein, Studenten zu bewerten, es sei denn, sie werden mit mündlichen und schriftlichen Prüfungen vor Ort kombiniert.
Es gibt immer noch eine Vielzahl von Ideen bezüglich der Verwendung von ChatGPT je nach Universität. An der Universität Cambridge und dem Pariser Institut für politische Studien ist die Verwendung von ChatGPT zur Erstellung von Aufsätzen und Präsentationsmaterialien beispielsweise verboten. An der Universität von Tokio sollen Berichte von den Studenten selbst erstellt werden, und sie dürfen sie nicht nur mit generativer KI erstellen.

Umfang und Grenzen der generativen KI

Zu Beginn dieses Blogs habe ich ein Beispiel dafür gegeben, wie sich die Übersetzungstools im Laufe der Jahre dramatisch verbessert haben. Selbst jetzt muss der endgültige übersetzte Text noch vom Autor überprüft werden, aber wir können ihn weitgehend unverändert verwenden. Auch die generative KI wird sich in Zukunft beschleunigt weiterentwickeln. Dennoch glaube ich, dass es vorerst dabei bleiben wird, dass der Mensch an der Spitze steht und mit kritischem Denken Urteile fällen muss. Ganz gleich, wie geschmeidig die Sätze sind und wie sie aussehen.
Wird Japan Stratus Technology also jemals generative KI einsetzen? Ich nehme an, sie könnte einen Antrag schreiben. Sie könnte auch E-Mail-Texte für eine unbestimmte Anzahl von Personen schreiben. In Anbetracht der Tatsache, dass sie nicht für vertrauliche oder persönliche Informationen verwendet werden sollte, scheint der Anwendungsbereich jedoch begrenzt zu sein.
Ich kann Ihnen allen versichern, dass ich diesen Blog selbst geschrieben habe. Wenn er ausschließlich von ChatGPT geschrieben worden wäre, hätte der Ton vielleicht etwas erwachsener geklungen.

VERWANDTE BEITRÄGE