Zwei männliche Studenten veröffentlichen Forschungsergebnisse auf der weltweit führenden KI-Konferenz

VnExpressVnExpress12/02/2024

[Anzeige_1]

Die Forschungsergebnisse zweier Studenten der Technischen Universität Ho Chi Minh-Stadt, die KI mithilfe kontroverser Trainingsmethoden neue Daten generieren lassen, wurden auf der AAAI, der weltweit führenden KI-Konferenz, veröffentlicht.

Die Forschungsergebnisse von Pham Khanh Trinh und Le Minh Khoi, 23, zu mehrsprachigen Modellen zum Trainieren der KI zur Bildung von Synonymen wurden in den Dokumenten der AAAI-24-Konferenz zur künstlichen Intelligenz veröffentlicht, die Ende Februar im kanadischen Vancouver stattfand.

Außerordentlicher Professor Dr. Quan Thanh Tho, stellvertretender Dekan der Fakultät für Informatik und Ingenieurwesen der Technischen Universität Ho Chi Minh-Stadt, bewertete dies als ein lobenswertes Ergebnis. Herr Tho sagte, dass AAAI von Forschern und Experten als eine Organisation höchster Qualität bei wissenschaftlichen Konferenzen in den Bereichen Informatik und künstliche Intelligenz angesehen werde, die Annahmequote für Artikel sei jedoch sehr niedrig und liege in diesem Jahr bei 23,75 %.

Minh Khoi und Khanh Trinh (Mitte) bei der Verteidigung ihrer Abschlussarbeit, 2023. Foto: Zur Verfügung gestellt von der Figur

Minh Khoi und Khanh Trinh (Mitte) bei der Verteidigung ihrer Abschlussarbeit, 2023. Foto: Zur Verfügung gestellt von der Figur

Da Trinh und Khoi eine gemeinsame Leidenschaft für Deep Learning und natürliche Sprachverarbeitung haben, entschieden sie sich für die Forschung zu großen Sprachmodellen (LLMs). Beide wollten die Grenzen des LLM herausfinden und ihn verbessern.

Khanh Trinh sagte, dass Chat GPT oder LLMs anhand einer riesigen Menge an Textdaten trainiert werden müssen, um genaue und vielfältige Antworten für die Benutzer zu generieren. Die beiden Jungen stellten fest, dass Chat-GPTs und LLMs bei weniger gebräuchlichen Sprachen wie Hindi, Kasachisch oder Indonesisch oft zu unerwarteten Ergebnissen führten, weil sie diese Sprachen nicht viel gelernt hatten oder ihnen nicht genügend Daten zum Lernen zur Verfügung standen.

„Warum erstellen wir nicht mehr Textdaten aus den ‚wenigen Ressourcen‘ dieser Sprachen, um die KI weiter zu trainieren?“, fragten die beiden männlichen Studenten. Daraus entstand das LAMPAT-Modell (Low-rank Adaptation for Multilingual Paraphrasing using Adversarial Training) – mehrsprachiges Paraphrasieren mithilfe der von Trinh und Khoi erforschten Methode des kontroversen Trainings.

LAMPAT ist in der Lage, aus einem vorhandenen Eingabesatz einen Synonymsatz zu generieren, um zusätzliche Textdaten zu erzeugen. Der Erklärfilm „Adversarial Training“ ist ein relativ neuer Ansatz zum Trainieren großer Sprachmodelle. Bei Angabe eines Eingabesatzes generiert die Anwendung mit herkömmlichen Trainingsmethoden einen Ausgabesatz. Doch durch gegnerisches Training kann sich die Anwendung selbst korrigieren, den Ausgabesatz bearbeiten und „gegen sich selbst spielen“, um weitere Sätze zu generieren.

Die Mehrsprachigkeit von LAMPAT liegt darin, dass das Modell 60 Sprachen gleichzeitig integriert. Basierend auf den gesammelten Datensätzen trainierte das Team LAMPAT weiter, um Synonymsätze zu generieren. Die von LAMPAT generierte Menge an Textdaten wird weiterhin für LLMs trainiert, sodass diese Modelle viele verschiedene Möglichkeiten erlernen können, Informationen für denselben Inhalt auszudrücken und so unterschiedliche Antworten mit einer höheren Wahrscheinlichkeit geben können, richtig zu sein. Mit dieser Funktion glaubt der Teamvertreter, dass LAMPAT in Anwendungen wie ChatGPT integriert werden kann, um dieses Modell weiter zu perfektionieren.

Darüber hinaus zwingt der Mangel an Daten für Chat-GPT oder LLMs einige Unternehmen dazu, viele externe Quellen wie Bücher, Zeitungen, Blogs usw. zu durchsuchen, ohne auf Urheberrechtsfragen zu achten. Laut Khanh Trinh ist die Erstellung von Synonymen auch eine Möglichkeit, Plagiate und Urheberrechtsverletzungen einzuschränken.

Nam Sinh gab ein Beispiel für Anwendungen wie Chat GPT: Wenn ein Benutzer eine Zusammenfassung eines vorhandenen Textes A anfordert, generiert die Anwendung einen Zusammenfassungstext B. Wenn die Gruppenforschungsmethode integriert ist, generiert die Anwendung beim Empfang von Text A basierend auf dem Mechanismus zur Generierung von Synonymen mehrere Texte mit demselben Inhalt A1, A2, A3, aus denen sie den Text zusammenfasst und viele Ergebnisse generiert, aus denen der Benutzer auswählen kann.

In den frühen Phasen der Untersuchung hatte das Team Schwierigkeiten, Bewertungsdaten für 60 Sprachen vorzubereiten. Da wir nicht auf eine ausreichend große Datenmenge zugreifen konnten, hat das Team einen vielfältigen und vollständigen Datensatz in 13 Sprachen zusammengestellt, um das Modell objektiv bewerten zu können, darunter: Vietnamesisch, Englisch, Französisch, Deutsch, Russisch, Japanisch, Chinesisch, Spanisch, Ungarisch, Portugiesisch, Schwedisch, Finnisch und Tschechisch. Dies ist auch ein zuverlässiger Datensatz für den abschließenden Schritt der menschlichen Evaluierung (Bewertung).

Minh Khoi (links) und Khanh Trinh (rechts) machten am Abschlusstag im November 2023 ein Erinnerungsfoto mit dem Lehrer Quan Thanh Tho. Foto von : Character bereitgestellt

Minh Khoi (links) und Khanh Trinh (rechts) machten am Abschlusstag im November 2023 ein Erinnerungsfoto mit dem Lehrer Quan Thanh Tho. Foto von : Character bereitgestellt

Für die Sprachen Englisch, Vietnamesisch, Deutsch, Französisch und Japanisch extrahierte das Team jeweils 200 zufällig ausgewählte Satzpaare (ein Paar bestehend aus dem Ausgabesatz und der richtigen Bezeichnung) zur Auswertung. Für jede der oben genannten Sprachen bat das Team fünf Sprachexperten, sie unabhängig voneinander anhand von drei Kriterien zu bewerten: semantische Erhaltung; Wortwahl und Wortschatzähnlichkeit, Flüssigkeit und Kohärenz des Ausgabesatzes. Die Skala wird von 1 bis 5 berechnet. Demzufolge liegt die durchschnittliche Bewertungsnote von Sprachexperten in diesen 5 Sprachen zwischen 4,2-4,6/5 Punkten.

Das Beispiel zeigt ein Paar vietnamesischer Sätze mit einer Bewertung von 4,4/5, wobei der Eingabesatz lautet: „Er erklärte das Problem ausführlich“ und der Ausgabesatz lautet: „Er erklärte das Problem ausführlich“.

Es gibt aber auch Satzpaare mit mangelhafter Qualität und semantischen Fehlern, wie etwa das Satzpaar „Wir essen, solange die Suppe heiß ist – Wir essen die Suppe, solange wir heiß sind“, das nur 2/5 Punkte erreicht.

Khanh Trinh sagte, die Recherche und Fertigstellung dieses Projekts habe 8 Monate gedauert. Dies ist auch das Abschlussarbeitsthema von Trinh und Khoi. Die Abschlussarbeit belegte im Computer Science Council 2 mit 9,72/10 Punkten den ersten Platz.

Laut Herrn Quan Thanh Tho hat LAMPAT zwar seine Kompetenz bei der Generierung menschenähnlicher Synonymphrasen in mehreren Sprachen unter Beweis gestellt, es bedarf jedoch noch weiterer Verbesserungen, um Redewendungen, Volkslieder und Sprichwörter in verschiedenen Sprachen verarbeiten zu können.

Darüber hinaus umfasst der Auswertungsdatensatz des Teams nur 13 Sprachen, wodurch viele Sprachen, insbesondere Minderheitensprachen, noch immer außen vor bleiben. Daher muss die Gruppe Forschungsarbeiten durchführen, um die Fähigkeiten aktueller mehrsprachiger Interpretationsmodelle zu verbessern und zu erweitern. Von hier aus können wir Sprachbarrieren zwischen Ländern und Völkern beseitigen.

Ende 2023 schlossen Trinh und Khoi ihr Bachelorstudium in Informatik mit Auszeichnung und einem Notendurchschnitt (GPA) von 3,7 bzw. 3,9/4 ab. Beide planen, im Ausland einen Master-Abschluss zu machen und in den Bereichen künstliche Intelligenz und maschinelles Lernen zu forschen.

„Wir forschen weiter an diesem Thema mit dem Ziel, LAMPAT stärker auf zukünftige wissenschaftliche Projekte anzuwenden und ein zuverlässiges mehrsprachiges Produkt für die Benutzer zu schaffen“, teilte Trinh mit.

Le Nguyen


[Anzeige_2]
Quellenlink

Kommentar (0)

No data
No data

Gleiches Thema

Gleiche Kategorie

Luc Yen, ein verstecktes grünes Juwel
Verbreitung nationaler kultureller Werte durch musikalische Werke
Lotusfarbe von Hue
Hoa Minzy enthüllt Nachrichten mit Xuan Hinh und erzählt die Geschichte hinter den Kulissen, wie „Bac Bling“ ein globales Fieber auslöste

Gleicher Autor

Erbe

Figur

Geschäft

No videos available

Nachricht

Ministerium - Zweigstelle

Lokal

Produkt