ChatGPT sovint al·lucina…

M’encanten els bots conversacionals com el ChatGPT, però no soc cec davant dels seus desafiaments. Com qualsevol model d’intel·ligència artificial (AI) a gran escala, els bots conversacionals enfronten, encara, problemes importants, com ara el biaix, els comentaris tòxics i fins i tot… les al·lucinacions!

El biaix pot ser un gran problema en aquest tipus de models, ja que si el model s’entrena amb textos que reflecteixen prejudicis de la societat, el model probablement els reproduirà en generar text. Així que, els investigadors d’AI han de ser conscients d’aquest risc i treballar per entrenar el model amb dades més diverses i corregir els biaixos que detecten.

Els comentaris tòxics també són una preocupació considerable, ja que poden generar contingut ofensiu per als usuaris. Així que, tocarà continuar entrenant el model per a reconèixer i evitar aquest tipus de contingut, i desenvolupar eines per detectar i eliminar el contingut que pot ferir.

I, finalment, les al·lucinacions poden ser un problema molt seriós si el model genera informació que no és veritable o realista, especialment si s’utilitza per prendre decisions importants en el món real o per creure’s de manera acrítica allò que redacta. En aquest sentit, cal desterrar el comentari que “els bots menteixen o enganyen” perquè no tenen aquesta capacitat conscient. Per solucionar aquest problema, ja existeix un barem de creativitat (temperatura, en diuen), però a més ja s’està treballant per millorar la capacitat del model per distingir entre el que és real i el fet imaginari.

En resum, queda molta feina per a fer, però s’avança a bon pas!

Aquesta entrada ha esta publicada en NOTÍCIES. Afegeix a les adreces d'interès l'enllaç permanent.

Deixa un comentari

L'adreça electrònica no es publicarà. Els camps necessaris estan marcats amb *