Una ricerca della New York University dimostra come sia possibile compromettere l’affidabilità dei grandi modelli linguistici in ambito medico con una quantità minima di dati corrotti, sollevando preoccupazioni sull’uso degli LLM per le ricerche sanitarie online
Disinformazione medica: è troppo facile compromettere i modelli linguistici con informazioni false
da | Gen 11, 2025 | news | 0 commenti