AWS CodeWhisperer: Ein neues Code-Generierungstool | 18.04.2023
Am 14. April 2023 hat Amazon Web Services (AWS) ein neues Code-Generierungstool namens Amazon CodeWhisperer veröffentlicht. Damit betritt Amazon die Bühne des Wettbewerbs um KI und vor allem um KI in der IDE/Entwicklungsunterstützungswelt (falls es dieses Wort gibt). CodeWhisperer scheint somit in direkter Konkurrenz zu GitHub's Co-Pilot anzutreten. Oder anders: Wir haben Amazon vs. Microsoft (+ OpenAI). Es gibt nur einen kleinen Unterschied: CodeWhisperer ist für jeden komplett kostenlos und könnte es auch bleiben.
Zusätzlich zu CodeWhisperer hat AWS auch die Veröffentlichung des Webdienstes Bedrock angekündigt. Dieser Release ermöglicht es Entwickler:innen, auf große, grundlegende Modelle in der AWS-Infrastruktur zuzugreifen, was es für jeden Entwickler ermöglicht, hochgradig angepasste KI-Anwendungen zu erstellen. Bedrock umfasst Modelle wie LLM von AI21labs (Jurassic-2), ANTHROP\C (mit dem LLM Claude) oder Stable Diffusion (du weißt schon: Generierung einzigartiger, realistischer, qualitativ hochwertiger Bilder, Kunstwerke, Logos und Designs). Ferner hat AWS auch zwei eigene grundlegende Modelle für Text- und Bildverarbeitung namens Amazon Titan angekündigt.
Dazu auf der Website zu Bedrock: > Amazon Bedrock provides you the flexibility to choose from a wide range of FMs built by leading AI startups and Amazon so you can find the model that is best suited for what you are trying to get done. With Bedrock’s serverless experience, you can get started quickly, privately customize FMs with your own data, and easily integrate and deploy them into your applications using the AWS tools and capabilities you are familiar with (including integrations with Amazon SageMaker ML features like Experiments to test different models and Pipelines to manage your FMs at scale) without having to manage any infrastructure.
Damit nicht genug. AWS hat auch seine neuen ML-Training-EC2-Instanzen allgemein verfügbar gemacht, die auf Inferentia-Chips basieren. Diese Chips können Machine-Learning-Modelle zu etwa 50 % der normalen Kosten auf EC2 trainieren. Dies bedeutet, dass Benutzer:innen ihr eigenes LLM von nun an günstiger trainieren könnten. Wieso könnten? Naja … das kann trotzdem kostspielig werden. Plattformen wie Cohere und Hugging Face verwenden diese Infrastruktur bereits.
CodeWhisperer kann kostenlos genutzt werden, indem man die VS-Code- oder JetBrains-Erweiterung installiert und sie durch Registrierung aktiviert. Benutzer:innen können zwischen Auto-Vorschlägen oder Vorschlägen auf Tastenkombination wählen. Im Vergleich zu Github's Co-Pilot schlägt CodeWhisperer nicht so viel Code vor und geht in der Regel Zeile für Zeile vor. Das ist sowohl eine gute als auch eine schlechte Sache, denn manchmal empfiehlt Co-Pilot eine Menge Nonsens. Allerdings in der Bearbeitung von einfachen Boilerplates, kann dies schon recht komfortabel sein.
CodeWhisperer hat einige einzigartige Funktionen, die Co-Pilot nicht hat, wie z.B. die Bereitstellung eines Verweises auf den Code in den Trainingsdaten bei der Erstellung von eigenem Code. Diese Funktion ist großartig für die Transparenz und macht es weniger wahrscheinlich, dass Benutzer:innen versehentlich Code stehlen und ihn in einer Weise verwenden, für die sie nicht zugelassen sind. Auch kann bei komplexeren Code-Fragmenten anhand Referenz-Code versucht werden zu prüfen, was da genau passiert, ohne sich durch den Code zu arbeiten. Ansonsten enthält CodeWhisperer Sicherheitsscans und bietet 50 davon pro Monat an, um Webanwendungen auf OWASP-Probleme zu überprüfen. Wenn du mehr als 50 Scans brauchst, musst du jedoch zu einem der Bezahlpakete wechseln.
CodeWhisperer mag kein Game-Changer sein, aber es kommt dem Niveau von Co-Pilot sehr nahe und ist vor allem kostenlos. Ich persönlich werde zunächst Co-Pilot die Treue halten. Aber wer weiß ... schauen kostet ja nichts.