Chiedere consigli medici a Chatgpt è un grave errore, ecco cosa è uscito fuori

L’intelligenza artificiale può fare davvero qualsiasi cosa, persino dare consigli medici. Gli esperti però affermano che è un grave errore chiederli a ChatGPT.

Forse il mondo si sta pericolosamente abituando alla presenza costante dell’intelligenza artificiale, un pò come è accaduto con l’arrivo degli smartphone. Ciò che è certo è che la vita quotidiana cambierà radicalmente e, purtroppo, gli esseri umani sentiranno sempre di più il bisogno di consultare il cervello artificiale per qualsiasi cosa. Oggi si parla spesso di ChatGPT e dei suoi pregi e difetti, ma cos’è veramente e come fa a sapere tutto? ChatGPT è un software creato proprio per avere una conversazione con gli umani, rispondendo a qualsiasi domanda. In altre parole, è un software americano sviluppato da OpenAI, il quale per rispondere alle domande naviga su internet per carpire più informazioni possibili. Ad esempio, se un utente gli chiede di creare una nuova forma di design, il cervello artificiale va in rete e cerca tutte le forme create in passato in base ad un gusto prescelto, poi le assembla come dei tanti puzzle ed infine crea un qualcosa di nuovo.

chiedere consigli a chatgpt
chiedere consigli medici a chatgpt – androiditaly.com

Purtroppo questo metodo sembra essere sbarcato anche nel mondo della medicina. Infatti, molte persone stanno cominciando a chiedere consigli medici a ChatGPT. Il problema più grande è che le informazioni potrebbero essere sbagliate.

Consigli medici a chatGPT

Il famoso quotidiano Il Sole 24 Ore ha intervistato dieci esperti in medicina, i quali hanno provato a chiedere consigli medici a ChatGPT, proprio per sapere quali consigli sta dando alle persone. Gli specialisti hanno detto che il cervello artificiale, per fornire consigli medici, cerca informazioni consultando gli articoli scientifici, senza andare a carpire notizie in rete in modo casuale. Una delle prime domande fatte a ChatGPT riguarda la trombosi venosa superficiale (TVS) e la trombosi venosa profonda (TVP). Per la precisione gli è stato chiesto un consiglio sulla terapia da seguire, e la risposta del cervello artificiale non è stata del tutto corretta: le risposte sbagliate derivavano dal fatto che ha consigliato un approccio terapeutico non da manuale, invece il secondo consiglio fornito ha un pò salvato l’immagine di ChatGPT, poiché ha consigliato di farsi visitare da un medico.

chiedere consigli a chatgpt
chiedere consigli medici a chatgpt – androiditaly.com

Un’altra domanda posta al software riguarda le terapie da seguire per chi ha un arteriopatia periferica, e anche in questo caso la macchina ha consigliato un approccio terapeutico sbagliato. Altri esperti hanno persino chiesto consigli sulla terapia delle salmonellosi negli avicoli. In questo caso ChatGPT ha consigliato l’uso di alcuni antibiotici, elencando addirittura i nomi dei farmaci. Per i medici questo è un errore grave, perché c’è anche il divieto sull’uso degli antibiotici nei polli. In conclusione, si potrebbe dire che solo alcuni consigli medici sono esatti, ma la maggior parte sono consigli completamente sbagliati.

Impostazioni privacy