GitHub Copilot: Was kann der Assistent für Entwickler?


Neben den genannten Problemen mit unpassenden Vorschlägen oder ausbaufähiger Syntax gibt es auch Diskussionen um die grundsätzliche Fehleranfälligkeit der Codes, die aktuell mit GitHub Copilot entstehen oder in Zukunft entstehen könnten. Da die Basis, durch die die KI lernen soll, häufig fehlerhaft oder zumindest ungeprüft ist, ist auch das Endergebnis zu oft unsicher. Zwar wird darauf hingewiesen, dass sämtlicher Input, den die KI liefert, nachgeprüft werden soll; ob dadurch allerdings auf lange Sicht ein tatsächlicher Vorteil für die tägliche Arbeit entstehen kann, ist so zumindest fraglich. In bisherigen Tests schnitt der Code von GitHub Copilot häufig schlecht ab.

Einige Entwickler befürchten auch, dass die Nutzung von Copilot im Git möglicherweise zu Copyright-Verletzungen führen könnte, sollte die KI einfach ganze Code-Blöcke übernehmen. Zwar gibt es unterschiedliche Fair-Use-Regelungen; ob die Lernerfolge einer KI darunter fallen, ist allerdings zumindest umstritten. Das gilt umso mehr, wenn GitHub Copilot in Zukunft auch noch für kommerzielle Zwecke genutzt werden könnte. Das Unternehmen selbst erklärt dazu, dass bereits jetzt nur wenige Quellcodes ganz oder teilweise unverändert übernommen werden. Mit größeren Lernerfolgen soll dieser Wert noch weiter sinken.



Source link

Kommentar verfassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Nach oben scrollen