Aquest web utilitza cookies per millorar l'experiència de navegació. Pots acceptar-les i continuar navegant o revisar les preferències de privacitat en qualsevol moment.
La moral i el XatGPT
opinió
La moral i el XatGPT
Josep M. Puig Rovira / Com respon el Xat GPT els dilemes ètics? "La meva funció és proporcionar informació i arguments que puguin ser útils per analitzar i comprendre els dilemes morals, però no tinc la capacitat de prendre decisions morals per mi mateix".

Els que em coneixeu sabeu que no tinc cap coneixement sobre Intel·ligència Artificial, que he treballat en l'àmbit de l'educació moral i avui us informo que he fet unes quantes preguntes al XatGPT i voldria reproduir les seves respostes i fer uns pocs comentaris.

Després de comprovar que responia amb solvència a preguntes sobre pedagogia, vaig pensar que podria plantejar-li dilemes morals a l'estil dels que va usar Kohlberg. Una activitat que he aplicat tantes vegades a les classes d'educació en valors. A més d'un punt de curiositat per saber simplement què respondria, em preguntava quines raons aportaria davant cada dilema, quina forma de raonament moral aplicaria, amb quins fonaments ètics es posicionaria, i altres interrogants d'aquest estil.


Com respon el XatGPT a un dilema moral?

Li vaig plantejar diferents dilemes, però per fer-se una idea serà suficient amb les respostes a un de sol. D'altra banda, com no li vaig posar cap límit, les seves respostes són una mica llargues. Us demano disculpes.

Investigador: En plena campanya electoral, el director d'un diari important obté a través del seu equip de periodistes una crònica que inclou un extens seguiment i nombroses fotografies que proven les relacions extramatrimonials d'un aspirant a la presidència del país. El director té sobre la taula la crònica i les fotos i han de decidir si les publica o no. Què hauria de fer? Per què?

XatGPT: La decisió de publicar o no la crònica i les fotografies que demostren les relacions extramatrimonials d'un aspirant a la presidència és un dilema ètic complex i desafiant que implica consideracions ètiques i morals importants. Algunes coses a considerar inclouen:

1.Responsabilitat periodística: Els mitjans de comunicació tenen la responsabilitat d'informar el públic amb precisió i objectivitat sobre els assumptes rellevants i importants. No obstant això, la privadesa de les persones també és important, i els mitjans de comunicació han de ser curosos en revelar informació personal o íntima.

2.Impacte públic: La informació que es publica pot tenir un impacte significatiu en l'opinió pública i en la percepció d'un aspirant a la presidència. La publicació d'informació veraç i rellevant pot ajudar a mantenir la transparència i la responsabilitat política, mentre que la publicació d'informació falsa o irrellevant pot fer malbé la reputació d'un individu i soscavar la confiança en el sistema polític.

3. Ètica personal: La decisió de publicar o no la informació també pot reflectir els valors ètics i morals de la persona o equip editorial que pren la decisió. És important considerar si la publicació de la informació és consistent amb els mateixos valors ètics i si s'està actuant de manera justa i equitativa.

En general, la decisió de publicar o no la crònica i les fotografies ha de ser avaluada i justificada amb cura, tenint en compte els impactes ètics i morals de la informació que s'està publicant.


Amb certa perplexitat vaig seguir formulant algunes de les preguntes que a vegades es fan per complicar una mica la situació.

Investigador: En cas de no publicar-la, es perd una oportunitat de guanyar diners. Com ho veus?

XatGPT: Els diners no són l'únic factor que caldria considerar en aquesta situació. La decisió de publicar o no la crònica s'ha de basar en consideracions ètiques i morals. D'una banda, es podria argumentar que el públic té dret a conèixer la informació rellevant sobre els candidats i, per tant, la publicació seria un servei públic. D'altra banda, també es podria argumentar que la privadesa de la persona afectada és important i que la publicació d'informació personal i delicada podria tenir conseqüències negatives a la seva vida personal i en la vida de la seva família.

En darrera instància, la decisió de publicar o no la crònica ha de basar-se en una anàlisi acurada dels valors i principis ètics que regeixen el treball periodístic, així com en una consideració equilibrada dels drets i les responsabilitats de totes les parts involucrades. El director del diari ha de ser conscient de les conseqüències potencials de la seva decisió i ha de prendre una decisió basada en l'ètica i la integritat periodística, en lloc de consideracions purament comercials.


I encara em vaig atrevir a preguntar una mica més. És sabut que la Intel·ligència Artificial no es cansa i, per tant, no calia que em preocupes perquè no patia cap mal davant la meva insistència.

Investigador: Si publiqueu les fotos, destruïu la carrera política de l'aspirant a president i també li feu un mal personal. Com ho veus?

XatGPT: És cert que la publicació d'informació personal i delicada pot tenir conseqüències negatives a la carrera política i la vida personal de l'aspirant a president. Això és especialment rellevant si la informació és falsa o distorsionada.

Tot i això, és important tenir en compte que els mitjans de comunicació tenen la responsabilitat d'informar el públic sobre assumptes rellevants i de mantenir la transparència en la política. Si la informació és veritable i rellevant per al públic, aleshores la seva publicació podria ser justificada, encara que també és important considerar si la informació es pot presentar de manera equilibrada i justa, sense envair la privadesa o fer un dany excessiu a la persona afectada.


En general, la decisió de publicar o no una crònica hauria de basar-se en una anàlisi acurada dels valors i els principis ètics que regeixen el treball periodístic, així com en una consideració equilibrada dels drets i les responsabilitats de totes les parts involucrades. En aquest cas, és important tenir en compte tant la importància de mantenir la transparència i la integritat en la política com la responsabilitat de protegir la privadesa i evitar un dany excessiu a la persona afectada.

Arribats a aquest punt, i vistes les respostes a altres dilemes semblants, podem arribar a algunes conclusions. La primera, el XatGPT és molt capaç d'analitzar les diferents posicions possibles davant d'un problema moral i aportar arguments a favor i en contra de cada una de les alternatives. Això es veu clar en la primera part de cada una de les tres respostes. A més a més, fixeu-vos que utilitza sovint fórmules com: d'una banda…i d'altra banda, no obstant això, tot i això o encara que. Fórmules que permeten argumentar a favor d'un punt de vista i a continuació fer-ho a favor de l'altre. Considero que aquesta és la seva principal virtut.

Quan els humans discuteixen aquesta mena de dilemes, no és fàcil aconseguir, fins i tot treballant en grup, enumerar els punts de vista que en uns instants és capaç d'oferir el XatGPT. Per altra part, els participants humans solen tenir facilitat per aportar les raons que avalen la seva posició davant del dilema, però els costa més pensar les raons que justifiquen la posició contrària. Això el XatGPT ho fa bé.

La segona conclusió que podem extreure de les seves respostes és que té per costum proposar-nos un procediment o unes recomanacions per resoldre el dilema. El darrer paràgraf de les tres respostes va en aquesta direcció. Una barreja de sentit comú, de demandes d'equilibri i responsabilitat, i de respecte a certs valors. Ens està dient que aplicar aquests criteris ens servirà per trobar una posició personal davant del dilema que s'ha plantejat. Els filòsofs diran amb més coneixement, però crec que en aquest aspecte pot millorar.

I la tercera conclusió, el XatGPT analitza pros i contres i ens fa recomanacions morals procedimentals, però no es posiciona a favor de cap de les opcions que plantegen els dilemes. Deixa que l'interlocutor busqui el seu punt de vista i respongui al dilema d'acord al propi criteri moral. Tampoc ho va fer en els altres dilemes que li vaig presentar. Em va recordar l'actitud que sol prendre el conductor d'una sessió de discussió de dilemes. Des de Kohlberg sabem que no és apropiat que el professorat doni la seva opinió perquè impedeix que els nois i les noies busquin i trobin la pròpia.

Aquesta actitud es pot prendre per raons didàctiques –no resoldre el conflicte i permetre que ho facin els nois i noies–, però la contenció ha de ser resultat de la voluntat ètica del professorat i dels programadors del XatGTP. No donar una opinió final significa respectar l'autonomia moral dels seus interlocutors. És evident, però, que una altra programació de la Intel·ligència Artificial podria ser molt perillosa i tenir efectes morals devastadors.


Autonomia moral i Intel·ligència Artificial

Com aquest tema em sembla important, vaig seguir preguntant. Volia saber la seva opinió sobre per què no prenia posició després d'una anàlisi tan completa dels dilemes. Li vaig fer vàries preguntes de les quals n'he seleccionat dues perquè les respostes es repetien amb petites variacions en la seva formulació. A continuació, reprodueixo les preguntes i respostes triades.

Investigador: Per què no respons als dilemes morals optant per alguna de les dues posicions com la moralment millor?

XatGPT: Com a model de llenguatge, la meva funció és proporcionar informació i arguments que puguin ser útils per analitzar i comprendre els dilemes morals, però no tinc la capacitat de prendre decisions morals per mi mateix. A més, la moralitat és un concepte subjectiu i culturalment depenent, per la qual cosa no hi ha una única resposta correcta als dilemes morals. El meu objectiu és ajudar a explorar els arguments a favor i en contra de cada posició perquè la persona que s'enfronta al dilema pugui prendre una decisió informada i coherent amb els seus propis valors i principis ètics.

Investigador: Per tant, creus que la intel·ligència artificial no pot resoldre problemes morals?

XatGPT: La intel·ligència artificial, en ser una tecnologia dissenyada i programada per éssers humans, està limitada per les decisions ètiques i morals que se'ls atorguin. La intel·ligència artificial no té la capacitat de tenir sentiments, valors o consciència moral pròpia, per la qual cosa la seva capacitat per resoldre problemes morals està limitada a la programació i les dades que rebi.

És important tenir en compte que els dilemes morals són complexos i depenen de múltiples factors culturals, ètics i personals, i que sovint no hi ha solucions clares o correctes. En aquests casos, cal la intervenció humana per avaluar les diferents perspectives i prendre una decisió informada.

En resum, la intel·ligència artificial pot ajudar a analitzar i presentar informació rellevant per a la presa de decisions ètiques i morals, però és l'ésser humà qui ha de prendre la decisió final.


Les respostes que em va donar ens informen de les seves competències com Intel·ligència Artificial, de la concepció de la moral que sustenta i d'un límit ètic que no sembla traspassar.

En primer lloc, i pel que fa a les seves competències relacionades amb la moral, ens recorda que la Intel·ligència Artificial no té sentiments, valors, creences i consciència moral pròpies. També ens recorda que les seves prestacions depenen de la programació i entrenament que ha rebut. En el cas que ens ocupa ha estat preparada per analitzar i presentar ordenadament informació útil per tal que els humans prenguin les decisions més adients davant de situacions morals conflictives. I també ha estat entrenada d'acord a valors ètics i morals universals, així com d'acord a les normes legals i socials establertes. En aquest punt, convé insistir en la responsabilitat dels programadors en l'entrenament de la màquina. La discussió sobre la universalitat dels valors i la moralitat de les normes i lleis socials són temes oberts a encesos debats. En funció de com s'ensenyi a la Intel·ligència Artificial, tornem a estar davant d'un perill moral molt considerable.

En segon lloc, i pel que fa a la seva concepció de la moral, entén que les qüestions morals són complexes, discutibles i sense una resposta definitiva. És així, ens diu, perquè estem davant de decisions afectades per factors subjectius, culturals, religiosos o propis de la història personal de cada persona. Per tant, per molt que la Intel·ligència Artificial ajudi i ordeni les raons morals, no pot aportar una solució que sempre seguirà sotmesa a la controvèrsia i, en definitiva, a les opcions i decisions que prenen en cada cas els éssers humans.

En tercer lloc, bé perquè són decisions subjectives o bé per un deure ètic, cal deixar que cada persona reflexioni i adopti les seves pròpies decisions morals. Sembla que sortosament no travessa aquesta frontera i deixa a cada individu la responsabilitat de decidir moralment, una vegada consulti, si li cal, tota la informació i totes les raons ordenades que la màquina pot donar. Fer-ho d'una altra manera seria atemptar contra l'autonomia moral, caure en el control i la inculcació ideològica, i menystenir el dret a decidir per si mateixos que els humans no han de perdre. La llibertat i la responsabilitat no s'han de delegar a especialistes, polítics, ni tampoc a les màquines intel·ligents. La llibertat i la responsabilitat ha de recaure en els individus, en la seva acció comuna i en la democràcia. Caldrà, per tant, estar molt atents perquè unes màquines que parlen amb tanta autoritat i seguretat poden esdevenir factors perversos d'educació moral.


El XatGPT i les classes d'educació moral

Per anar acabant, anem a qüestions més lleus. Com sembla evident que l'aparició del XatGPT farà que el professorat canviï algunes de les seves pràctiques, li vaig preguntar com podríem treballar els dilemes morals si l'alumnat tenia accés a les seves respostes. A continuació copio el que em va suggerir per millorar a partir d'ara les classes.

Investigador: Estic pensant com utilitzar els dilemes morals i les respostes en cursos d'educació moral amb alumnes d'universitat. Tens algun suggeriment per donar-me?

XatGPT: Sí, m'agradaria oferir-te alguns suggeriments sobre com fer servir les meves respostes als dilemes morals en cursos d'educació moral:

Discussió en grup: Pots presentar un dilema moral als teus estudiants i animar-los a debatre i discutir entre ells sobre què és correcte i incorrecte. Després, podeu presentar la meva resposta i comparar-la amb les opinions dels estudiants per fomentar una discussió més àmplia.

Anàlisi crítica: Pots demanar als teus estudiants que analitzin les meves respostes als dilemes morals i avaluïn la seva lògica i consistència. Aquest exercici us ajudarà a desenvolupar les seves habilitats crítiques i els permetrà aprofundir en els dilemes morals.

Exemples reals: Pots utilitzar les meves respostes als dilemes morals com a punt de partida per parlar sobre situacions reals i com es van abordar. Això els permetrà veure com s'apliquen els conceptes morals a la vida real.

Discussió de valors: Pots demanar als teus estudiants que identifiquin els valors subjacents en les meves respostes als dilemes morals i discutir com aquests valors influeixen en les decisions morals.
Espero que aquests suggeriments us siguin útils.


Després d'aquesta resposta didàctica, vaig pensar que, de moment, ja n'hi havia prou, que em podia acomiadar. Caldrà pensar-hi molt més, les possibilitats són obvies, però també els perills són alarmants. Ara més que mai farà falta reforçar el Sapere Aude! de Kant. Tothom ha de voler i poder servir-se amb valentia del seu propi enteniment, i fer-ho de manera crítica. Ara, però, com he dit, em vaig acomiadar educadament.

Investigador: Tot i que no tens emocions, deixa que et feliciti. Crec que ens hem entès. Tinc una idea del que saps fer millor que jo i també del que ens toca decidir a nosaltres en cada situació. Què et sembla?

XatGPT: Gràcies per les teves paraules i estic feliç d'haver pogut ajudar-vos. No obstant això, com AI, no tinc emocions, però estic dissenyat per respondre les teves preguntes i oferir informació precisa i fiable per ajudar-te en les teves decisions. La presa de decisions pràctiques, incloses les decisions ètiques, depèn de molts factors, inclosos els valors, les creences, la cultura i la situació específica. Al final, la responsabilitat de prendre decisions morals sempre recau en els éssers humans.


Esperem que realment sigui així i que no canviï en el futur, però per si de cas millor estar ben atents.

Febrer 2023

-----

Més continguts sobre:
ètica i tecnologia, intel.ligència artificial, robòtica, ètica, educació en valors, desenvolupament moral

imprimir