
Ricerca
"Ora provveder貌 a decodificarlo."

In Language Weaver, vantiamo una lunga storia di ricerca e sviluppo nel campo dell'elaborazione di linguaggi naturali. Il nostro team multinazionale e multifunzionale svolge ricerche all'avanguardia con l'obiettivo a breve termine di far progredire la scienza, e gli obiettivi a lungo termine di introdurre questo lavoro negli strumenti e nelle tecnologie che aiutano i nostri clienti a comprendere meglio i loro contenuti e di creare nuovi contenuti in modo pi霉 efficace.听
Alcune delle aree in cui il nostro team sta attivamente svolgendo attivit脿 di ricerca e sviluppo includono:听
- Traduzione automatica neurale听
- Stima della qualit脿 della MT听
- Riepilogo multilingue听
- Riconoscimento delle entit脿 nominate听
- Analisi delle reazioni听
- Generazione di testo听
- Semplificazione e parafrasi del testo听
- Risposte alle domande听
- Analisi di argomenti e stili听
Partecipiamo regolarmente a conferenze sia come uditori che come relatori e pubblichiamo il nostro lavoro in sedi note come NAACL, (e)ACL, EMNLP, MT Summit e altri. Di seguito sono riportate alcune delle nostre pubblicazioni selezionate.
Lavorare in Language Weaver
L'aspetto migliore del lavoro in Language Weaver 猫 che non 猫 mai noioso! Il nostro team non 猫 costretto a lavorare sempre sullo stesso progetto o a fare ricerche continue sullo stesso argomento; infatti, lavoriamo sempre con nuovi clienti su nuovi dati, lingue interessanti e domini e applicazioni di ampia portata.听
Abbiamo sempre la possibilit脿 di perfezionare e ampliare le nostre competenze, provando nuove tecniche per risolvere problemi reali per clienti che elaborano e traducono miliardi di parole ogni anno. Poich茅 i membri del nostro team hanno un'ampia variet脿 di esperienze, impariamo molto anche gli uni dagli altri.听
Con sedi a Los Angeles, Cluj-Napoca, Dublino e altri paesi in Europa, il nostro team di scienziati, ingegneri e linguisti forma una squadra dinamica ed energica con una solida base in NLP e la volont脿 di ampliare i propri orizzonti. Tra tutti parliamo quasi tante lingue quante sono quelle tradotte dai nostri motori di traduzione automatica!
Oltre alle nostre attivit脿 quotidiane, abbiamo anche un gruppo di lettura settimanale in cui presentiamo la nostra ricerca e altri documenti di rilievo del settore. Inoltre, pubblichiamo un blog settimanale, "The Neural MT Weekly", letto da oltre 1.000 lettori ogni settimana!
Vi interessa entrare a far parte del nostro team? Contattateci!
笔耻产产濒颈肠补锄颈辞苍颈听
Pubblicazioni selezionate:鈥 鈥
2021:鈥 鈥
Roemmele, M. and鈥疭idhpura, D., and鈥疍eNeefe鈥疭., and Tsou, L. (2021).鈥疉nswerQuest: A System for Generating Question-Answer Items from Multi-Paragraph Documents. 16th Conference of the European Chapter of the Association for Computational Linguistics (EACL 2021), Demo Track.鈥 鈥
2020:鈥 鈥
Saunders, D., Feely, W. and Byrne, B.鈥(2020).鈥疘nference-only sub-character decomposition improves translation of unseen logographic characters, Proceedings of the 7th Workshop on Asian Translation.鈥 鈥
2019:鈥 鈥
Feely,鈥疻., Hasler, E. and鈥痙e鈥疓ispert,鈥疉.鈥(2019).鈥疌ontrolling鈥疛apanese鈥疕onorifics in鈥疎nglish-to-Japanese鈥疦eural Machine Translation.鈥疨roceedings of the 6th Workshop on Asian Translation.鈥 鈥
Saunders, D., Stahlberg, F., de鈥疓ispert, A. and Byrne, B. (2019). Domain Adaptive Inference for Neural Machine Translation. Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics (ACL).鈥 鈥
Roemmele, M. (2019). Identifying Sensible Lexical Relations in Generated Stories. Workshop on Narrative Understanding at the 2019 Annual Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL 2019)鈥 鈥
2018:鈥 鈥
Iglesias, G.,鈥疶ambellini, W., de鈥疓ispert, A., Hasler, E. and Byrne, B. (2018). Accelerating NMT Batched Beam Decoding with LMBR Posteriors for Deployment. Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics (NAACL-HLT).鈥 鈥
Hasler, E., de鈥疓ispert, A., Iglesias, G. and Byrne, B (2018). Neural Machine Translation Decoding with Terminology Constraints. Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics (NAACL-HLT)鈥 鈥
Saunders, D., Stahlberg, F., de鈥疓ispert, A. and Byrne, B. (2018). Multi-representation Ensembles and Delayed SGD Updates Improve Syntax-based NMT. Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (ACL).鈥 鈥
Stahlberg, F., de鈥疓ispert, A. and Byrne, B. (2018). The University of Cambridge's Machine Translation Systems for WMT18. Proceedings of the Conference of Machine Translation (WMT).鈥 鈥
2017:鈥 鈥
Hasler, E., de鈥疓ispert, A., Stahlberg, F., Waite, A. and Byrne, B. (2017). Source sentence simplification for statistical machine translation. Computer Speech & Language, vol. 45,鈥痯p.鈥221-235.鈥 鈥
Stahlberg, F., de鈥疓ispert, A., Hasler, E. and Byrne, B. (2017). Neural Machine Translation by鈥疢inimising鈥痶he Bayes-risk with Respect to Syntactic Translation Lattices. Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics (EACL).鈥 鈥
Hasler, E., Stahlberg, F., Tomalin, M. de鈥疓ispert, A. and Byrne, B. (2017). A Comparison of Neural Models for Word Ordering. International Conference on Natural Language Generation (INLG).鈥 鈥
2015鈥听
Gispert, A., Iglesias, G., Byrne, W., (2015) Fast and Accurate Preordering for SMT using Neural Networks, North American Chapter of the Association for Computational Linguistics: Human Language Technologies鈥 鈥
Dreyer, M., &鈥疓raehl, J. (2015)鈥痟yp: A Toolkit for Representing, Manipulating, and Optimizing Hypergraphs, North American Chapter of the Association for Computational Linguistics: Human Language Technologies鈥 鈥
Dreyer, M., & Dong, D., (2015) APRO: All-Pairs Ranking Optimization for MT Tuning, North American Chapter of the Association for Computational Linguistics: Human Language Technologies鈥 鈥
2014鈥 鈥
May, J.,鈥疊enjira, Y.,鈥疎chihabi, A., (2014) An鈥疉rabizi-English鈥疭ocial Media鈥疭tatistical Machine Translation System, Association for Machine Translation in the Americas鈥 鈥
Jehl, L.,鈥疓ispert, A., Hopkins, M., Byrne, M., (2014) Source-side preordering for translation using logistic regression and depth-first branch-And-bound search, European Chapter of the Association for Computational Linguistics, (pp. 239-248).鈥 鈥
2013鈥 鈥
Hopkins, M., & May, J. (2013) Models of Translation Competitions. Proceedings of ACL, 2013.鈥
Munteanu, D. S., &鈥疢arcu, D. (2013) Exploiting Comparable Corpora. In Building and Using Comparable Corpora, Springer Publications.鈥 鈥
2012鈥
Soricut, R., Bach, N., & Wang, Z. (2012) The SDL Language Weaver Systems in the WMT12 Quality Estimation Shared Task,鈥疘nProceedings鈥痮f the Seventh Workshop on Statistical Machine鈥疶ranslation(WMT 2012), June 2012, Montreal, Quebec, Canada.鈥 鈥
Dreyer, M. &鈥疢arcu, D. (2012)鈥疕yTER: Meaning-Equivalent Semantics for Translation Evaluation, In Proceedings of the 2012 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Montreal, Canada.鈥 鈥
2011鈥 鈥
Hopkins, M., & May, J. (2011) Tuning as Ranking. Proceedings of EMNLP, 2011.鈥 鈥
Hopkins, M., Langmead, G., & Vo,鈥疶.(2011) Extraction Programs: A Unified Approach to Translation Rule Extraction. Proceedings of WMT, 2011.鈥 鈥
2010鈥 鈥
Soricut, R., &鈥疎chihabi, A. (2010)鈥疶rustRank: Inducing Trust in Automatic Translations via Ranking, Association for Computational Linguistics Conference, (pp. 612-621).鈥 鈥
Hopkins, M., & Langmead, G. (2010) SCFG Decoding Without Binarization. Proceedings of EMNLP, 2010.鈥 鈥
Wang, W., May, J., Knight, K., &鈥疢arcu, D. (2010) Re-Structuring, Re-Labeling, and Re-Aligning for Syntax-based Machine Translation, Computational Linguistics. (36.2).鈥 鈥
2009鈥 鈥
Hopkins, M., & Langmead, G. (2009) Cube Pruning as Heuristic Search. Proceedings of EMNLP, 2009.鈥 鈥
Yamada, K., &鈥疢uslea, I. (2009). Re-ranking for large-scale statistical machine translation, Learning Machine Translation, (pp. 151-169)鈥 鈥
2007鈥 鈥
Wang, W.,鈥疜night, K., &鈥疢arcu, D. (2007) Binarizing Syntax Trees to Improve Syntax-Based Machine Translation Accuracy. Proceedings of EMNLP-07, pp. 746-754, Praga.鈥 鈥
2006鈥 鈥
Marcu, D., Wang, W.,鈥疎chihabi, A., & Knight, K. (2006) SPMT: Statistical Machine Translation with鈥疭yntactified鈥疶arget Language Phrases", Empirical Methods in Natural Language Conference, (pp. 44-52).鈥 鈥
Huang, B., & Knight, K. (2006). Relabeling Syntax Trees to Improve Syntax-Based Machine Translation Quality. Proceedings of HLT-NAACL, 2006.