Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
quindi c'è questo documento del 2025 che mostra come i modelli di emozione del parlato migliorino notevolmente quando li costringi a spiegarsi.
non solo "il parlante è arrabbiato"
ma "il parlante è arrabbiato perché dice X / ho rilevato il suono Y / ecco le prove"
è quasi imbarazzantemente semplice. prendi la trascrizione e l'etichetta di emozione di verità fondamentale, chiedi a un LLM di generare una spiegazione che colleghi l'etichetta a ciò che è stato effettivamente detto, poi usa QUELLO come segnale di supervisione. l'addestramento su obiettivi potenziati dal ragionamento invece di etichette semplici ha migliorato il riconoscimento delle emozioni di circa il 20% (attraverso IEMOCAP e MELD).
hanno anche testato su dati fuori dominio (TV mandarino, youtube in singlish), e il modello di ragionamento GENERALIZZA ANCORA meglio di emotion2vec+ large, R1-AQA e audio-reasoner, anche se è stato addestrato solo su conversazioni diadiche in inglese e episodi della serie TV Friends.
un classificatore memorizza una distribuzione, ma un modello di ragionamento impara come suonano realmente le emozioni.
intuitivo ma comunque incredibilmente sorprendente.

Principali
Ranking
Preferiti
