Debiasing Pretrained Text Encoders by Paying Attention to Paying Attention / Gaci, Yacine; Benatallah, Boualem; Casati, Fabio; Benabdeslem, Khalid. - (2022), pp. 9582-9602. (Intervento presentato al convegno EMNLP tenutosi a Abu Dhabi nel December 2022) [10.18653/v1/2022.emnlp-main.651].

Debiasing Pretrained Text Encoders by Paying Attention to Paying Attention

Benatallah, Boualem;Casati, Fabio;
2022-01-01

2022
Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing
NY
Association for Computational Linguistics
Gaci, Yacine; Benatallah, Boualem; Casati, Fabio; Benabdeslem, Khalid
Debiasing Pretrained Text Encoders by Paying Attention to Paying Attention / Gaci, Yacine; Benatallah, Boualem; Casati, Fabio; Benabdeslem, Khalid. - (2022), pp. 9582-9602. (Intervento presentato al convegno EMNLP tenutosi a Abu Dhabi nel December 2022) [10.18653/v1/2022.emnlp-main.651].
File in questo prodotto:
Non ci sono file associati a questo prodotto.

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/11572/441178
 Attenzione

Attenzione! I dati visualizzati non sono stati sottoposti a validazione da parte dell'ateneo

Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
  • OpenAlex ND
social impact