Dezvoltatorii open source, copleșiți de erorile generate de AI, care „nu înțelege codul”

Rapoartele despre vulnerabilități software create cu ajutorul inteligenței artificiale creează probleme pentru proiectele open source. Aceste rapoarte sunt adesea de calitate scăzută și îi obligă pe dezvoltatori să consume mult timp ca să verifice și să elimine informațiile greșite.

Seth Larson, dezvoltator de securitate la Python Software Foundation, a atras atenția asupra acestui fenomen într-o postare recentă pe blog.

El a observat o creștere a rapoartelor „spam” generate de AI și a cerut celor care raportează erori să evite utilizarea inteligenței artificiale pentru identificarea problemelor.

„Aceste rapoarte par legitime la prima vedere, dar necesită timp pentru a fi respinse,” a spus Larson, subliniind că astfel de rapoarte afectează serios proiectele open source.

Un exemplu recent din proiectul Curl arată că problema persistă, specialiștii fiind nevoiți să gestioneze în continuare rapoarte false generate de AI.

Daniel Stenberg, unul dintre aceștia, a descris situația ca fiind o povară inutilă asupra echipei.

Problema este mai gravă pentru proiectele care se bazează pe voluntari, aceștia având deja resurse limitate. Larson a avertizat că acest tip de activitate poate duce la epuizarea sau la plecarea dezvoltatorilor.

El a sugerat că soluțiile acestei probleme ar putea fi finanțarea unor posturi dedicate și implicarea mai multor persoane de încredere în proiectele open source.

De asemenea, a recomandat celor care raportează erori să se asigure că informațiile sunt verificate de oameni și să evite utilizarea AI, care „nu poate înțelege codul”.

Citește și

spot_img

Alte știri din aceeași rubrică

spot_img