Google hat zwei neue Modelle der künstlichen Intelligenz für die Gesundheitsbranche vorgestellt: MedGemma 27B und MedSigLIP. Diese Modelle stehen kostenlos zur Verfügung für Forscher, Krankenhäuser und Entwickler.
MedGemma 27B ist ein Hauptmodell, das nicht nur medizinische Texte liest, wie die vorherigen Versionen, sondern auch medizinische Bilder analysieren und verstehen kann. Es kann beispielsweise Röntgenbilder, Diagnoseberichte oder Patientendaten, die möglicherweise Monate oder Jahre alt sind, verarbeiten und wie ein Arzt zusammenfassen.
Die Leistungszahlen des Modells sind beeindruckend. Bei den Tests auf MedQA, einer Standardreferenz für medizinische Kenntnisse, erreichte MedGemma 27B einen Score von 87,7 %. Dies stellt es in eine kurze Entfernung zu den größeren und teureren Modellen und kostet etwa ein Zehntel der Kosten.
Besonders für Gesundheitssysteme mit begrenzten Ressourcen ist dies ein potenziell umwälzender Schritt.
Ein kleineres Modell, MedGemma 4B, ist zwar kleiner, aber nicht weniger leistungsfähig. Es erreichte bei den gleichen Tests einen Score von 64,4 % und ist eines der besten Modelle in seiner Klasse.
Ein wichtiger Aspekt ist, dass Radiologen, die von der amerikanischen Behörde zertifiziert sind, die Berichte über Röntgenbilder, die MedGemma 4B erstellt hat, als ausreichend für die richtige Behandlung des Patienten erachtet haben.
MedSigLIP, mit nur 400 Millionen Parametern, ist trainiert, medizinische Bilder auf tiefere Weise zu verstehen. Krankenhäuser in den USA, Taiwan und Indien testen bereits diese Modelle mit ermutigenden Ergebnissen.
Durch diesen Schritt will Google die fortschrittlichste Technologie auch in Gesundheitssystemen mit begrenzten Ressourcen bringen. Die Modelle können auf standardisierten Geräten verwendet werden, was die Möglichkeit für klinische Anwendungen auch in ländlichen Regionen oder Entwicklungsländern eröffnet.
Doch die Frage bleibt: Ist dies ein Fortschritt oder ein riskanter Schritt? Was denken Sie?