Bella riflessione, non ne parlano in molti! L'equivoco di fondo secondo me nasce dal fatto che cerchiamo di usare questo strumento (l'AI generativa) per cose per le quali non è stata concepita. Ne ho parlato un po' qui: https://riccardopinto.substack.com/p/loracolo-dellai-promesse-illusioni il pericolo di usare questa tecnologia come un oracolo - ma anche banalmente come un semplice motore di ricerca - è molto pericoloso.
Le potenzialità , i limiti e i potenziali pericoli di ChatGpt sono ancora tutti da esplorare, credo. Di conseguenza, molto interessanti gli spunti di riflessione che ci hai fornito.
Personalmente, temo che sia tutto il funzionamento della rete che tende a confermare i nostri bias e a "chiuderci" in un mondo sempre più piccolo, per quanto ciò possa sembrare paradossale.
Gli algoritmi, del resto, ci propongono ciò che a noi già interessa e raffinano le ricerche nelle direzioni verso cui siamo già rivolti. In questo modo è possibile approfondire enormemente certi ambiti di nostro interesse. Il rischio è quello di continuare vorticosamente a girare attorno a idee che confermano solo quella che già abbiamo e attorno a persone che la pensano esattamente come noi.
Io credo che anche il tuo sia un non-problema. Tu hai fatto delle domande ad una AI in maniera per altro scorretta (bisogna sempre specificare alla AI da che punto di vista vuoi ricevere una risposta, che tipo di risposta desideri e bisogna anche sempre chiedere alla AI di portci eventuali domande per fare in modo che lei capisca esattamente cosa intendiamo e desideriamo) e la AI ti ha risposto senza argomentare. È un bot il cui compito è quello di analizzare meramente una quantità di dati in un tempo così breve che ci risparmia un sacco di seccature, se tu che poni il quesito non lo poni "bene", non puoi certo aspettarti la risposta "migliore possibile".
Quando chiedi ad un copy di scriverti un testo, questi vorrà da te un briefing e ti si presentarà davanti con una serie anche piuttosto lunga di domande per fare in modo che alla fine il testo da lui/lei prodotto sarà in linea con le tue aspettative. Chatgpt va trattato come un copy, né più né meno. La fortuna è che è un copy che sa già tantissime cose e dunque ci metterà molto meno a produrre il testo che tu vuoi.
ciò che dici è vero, ma non risolve il problema. Io infatti non sto parlando del modo più corretto in cui porre le domande alle AI, ma del modo più frequente con cui queste domande vengono poste dalla maggior parte delle persone.
Finché non si inizierà a fare educazione sull'utilizzo di questi strumenti (e credo che siamo ancora molto lontani, anche perché siamo nel pieno della scoperta) domande come quelle che ho posto saranno molto frequenti.
Inoltre il bias di conferma deriva anche dal fatto che una persona non è in grado di mettere in dubbio le proprie convinzioni e chiederà a maggior ragione risposte unidirezionali. Se un utente è in grado di chiedere argomenti e contro-argomenti, significa che è già uscito dal bias di conferma.
Sono d'accordo: per la AI come per tutti gli altri strumenti serve sapere come impiegarli. Poi spesso anche questa conoscenza viene comunque ignorata dai più (basti pensare al corretto uso degli smartphone, per dire uno degli esempi più banali). E lì nascono molte altre domande sulla natura dell'uomo a cui è probabilmente impossibile dare una risposta esaustiva.
Quello che comunque vorrei dire è: non puntiamo il dito su uno strumento, quando il reale problema sta in chi lo usa. Anche perché gli strumenti nella maggior parte dei casi escono sul mercato con delle istruzioni per l'uso facili da consultare per chi è veramente interessato.
Bella riflessione, non ne parlano in molti! L'equivoco di fondo secondo me nasce dal fatto che cerchiamo di usare questo strumento (l'AI generativa) per cose per le quali non è stata concepita. Ne ho parlato un po' qui: https://riccardopinto.substack.com/p/loracolo-dellai-promesse-illusioni il pericolo di usare questa tecnologia come un oracolo - ma anche banalmente come un semplice motore di ricerca - è molto pericoloso.
Grazie mille!
grazie a te!
Grazie per la condivisione del video di Prof Floridi a BSMT! un regalo davvero!
Si figuri! Un'intervista così preziosa non deve rimanere nascosta!
Le potenzialità , i limiti e i potenziali pericoli di ChatGpt sono ancora tutti da esplorare, credo. Di conseguenza, molto interessanti gli spunti di riflessione che ci hai fornito.
Personalmente, temo che sia tutto il funzionamento della rete che tende a confermare i nostri bias e a "chiuderci" in un mondo sempre più piccolo, per quanto ciò possa sembrare paradossale.
Gli algoritmi, del resto, ci propongono ciò che a noi già interessa e raffinano le ricerche nelle direzioni verso cui siamo già rivolti. In questo modo è possibile approfondire enormemente certi ambiti di nostro interesse. Il rischio è quello di continuare vorticosamente a girare attorno a idee che confermano solo quella che già abbiamo e attorno a persone che la pensano esattamente come noi.
Io credo che anche il tuo sia un non-problema. Tu hai fatto delle domande ad una AI in maniera per altro scorretta (bisogna sempre specificare alla AI da che punto di vista vuoi ricevere una risposta, che tipo di risposta desideri e bisogna anche sempre chiedere alla AI di portci eventuali domande per fare in modo che lei capisca esattamente cosa intendiamo e desideriamo) e la AI ti ha risposto senza argomentare. È un bot il cui compito è quello di analizzare meramente una quantità di dati in un tempo così breve che ci risparmia un sacco di seccature, se tu che poni il quesito non lo poni "bene", non puoi certo aspettarti la risposta "migliore possibile".
Quando chiedi ad un copy di scriverti un testo, questi vorrà da te un briefing e ti si presentarà davanti con una serie anche piuttosto lunga di domande per fare in modo che alla fine il testo da lui/lei prodotto sarà in linea con le tue aspettative. Chatgpt va trattato come un copy, né più né meno. La fortuna è che è un copy che sa già tantissime cose e dunque ci metterà molto meno a produrre il testo che tu vuoi.
Buongiorno Sara,
ciò che dici è vero, ma non risolve il problema. Io infatti non sto parlando del modo più corretto in cui porre le domande alle AI, ma del modo più frequente con cui queste domande vengono poste dalla maggior parte delle persone.
Finché non si inizierà a fare educazione sull'utilizzo di questi strumenti (e credo che siamo ancora molto lontani, anche perché siamo nel pieno della scoperta) domande come quelle che ho posto saranno molto frequenti.
Inoltre il bias di conferma deriva anche dal fatto che una persona non è in grado di mettere in dubbio le proprie convinzioni e chiederà a maggior ragione risposte unidirezionali. Se un utente è in grado di chiedere argomenti e contro-argomenti, significa che è già uscito dal bias di conferma.
Sono d'accordo: per la AI come per tutti gli altri strumenti serve sapere come impiegarli. Poi spesso anche questa conoscenza viene comunque ignorata dai più (basti pensare al corretto uso degli smartphone, per dire uno degli esempi più banali). E lì nascono molte altre domande sulla natura dell'uomo a cui è probabilmente impossibile dare una risposta esaustiva.
Quello che comunque vorrei dire è: non puntiamo il dito su uno strumento, quando il reale problema sta in chi lo usa. Anche perché gli strumenti nella maggior parte dei casi escono sul mercato con delle istruzioni per l'uso facili da consultare per chi è veramente interessato.
Grazie per queste riflessione!
Grazie mille a lei!