Р.А. Кочкаров1, А.М. Пойкалайнен2
1,2 Финансовый университет при Правительстве РФ (Москва, Россия)
1 rkochkarov@fa.ru, 2 ampojkalajnen@fa.ru
Постановка проблемы. Развитие технологий искусственного интеллекта открывает новые возможности для улучшения медицинской практики. Одной из таких возможностей является использование больших языковых моделей (LLM) в сочетании с технологиями машинного перевода для решения задач, связанных с медицинской документацией, поиском и обобщением медицинской информации, а также подготовкой образовательных материалов для медицинских работников.
Цель. Продемонстрировать возможности модели Biomistral совместно с моделью машинного перевода Seamless M4T v2 для обработки медицинских текстов на труднопереводимых языках, таких как китайский, японский, корейский и арабский.
Результаты. Проведены эксперименты с использованием корпуса текстов, собранного из открытых интернет-источников, таких как PubMed. Показано, что комбинация LLM и моделей машинного перевода может значительно улучшить качество перевода, обобщения и подготовки медицинских текстов. Отмечено, что использование Biomistral и Seamless M4T v2 позволяет преодолеть языковые барьеры, обеспечивая высокое качество перевода и точность обработки информации.
Практическая значимость. Внедрение данных технологий может существенно повысить эффективность и доступность медицинских услуг, особенно в регионах с многоязычным населением, улучшив качество медицинской документации и образовательных материалов для медицинских работников.
Кочкаров Р.А., Пойкалайнен А.М. Применение больших языковых моделей и технологий машинного перевода в здравоохранении // Нейрокомпьютеры: разработка, применение. 2024. T. 26. № 6. С. 31-38. DOI: https://doi.org/10.18127/j19998554-202406-05
- Жулева С.Ю., Крошилин А.В., Крошилина С.В. Разработка системы поддержки принятия решений для организации рабочего времени медицинского работника на основе методов искусственного интеллекта // Биомедицинская радиоэлектроника. 2023. T. 26. № 3. С. 55–60. DOI doi.org/10.18127/j15604136-202303-07.
- Brown T.B., Mann B., Ryder N., Subbiah M., Kaplan J., Dhariwal P., Neelakantan A., Shyam P., Sastry G., Askell A., Agarwal S., Herbert-Voss A., Krueger G., Henighan T., Child R., Ramesh A., Ziegler D.M., Wu J., Winter C., Hesse C., Chen M., Sigler E., Litwin M., Gray S., Chess B., Clark J., Berner C., McCandlish S., Radford A., Sutskever I., Amodei D. Language Models are Few-Shot Learners. [Электронный ресурс] – Режим доступа: https://arxiv.org/pdf/2005.14165, дата обращения 21.06.24.
- Lee J., Yoon W., Kim S., Kim D., Kim S., So C.H., Kang J. BioBERT: a pre-trained biomedical language representation model for biomedical text mining // Bioinformatics. 2020. V. 36. № 4. P. 1234–1240. DOI 10.1093/bioinformatics/btz682.
- Biomistral: A Large Language Model for Biomedical Texts. Biomistral Documentation. [Электронный ресурс] – Режим доступа: https://biomistral.ai/documentation, дата обращения 21.06.24.
- SeamlessM4T: Massively Multilingual & Multimodal Machine Translation. [Электронный ресурс] – Режим доступа: https://ar-xiv.org/pdf/2308.11596, дата обращения 21.06.24.
- PubMed. "Home – PubMed – NCBI." National Center for Biotechnology Information. [Электронный ресурс] – Режим доступа: https://pubmed.ncbi.nlm.nih.gov/, дата обращения 21.06.24.
- Papineni K., Roukos S., Ward T., Zhu W.-J. BLEU: a method for automatic evaluation of machine translation // Proceedings of the 40th Annual Meeting on Association for Computational Linguistics. 2002. P. 311–318. DOI 10.3115/1073083.1073135.
- Lin C.-Y. ROUGE: A Package for Automatic Evaluation of Summaries // Proceedings of the Workshop on Text Summarization Branches Out. 2004. P. 74–81.
- Lavie A., Agarwal A. METEOR: An Automatic Metric for MT Evaluation with High Levels of Correlation with Human Judgments // Proceedings of the Second Workshop on Statistical Machine Translation. 2007. P. 228–231.
- Liu Y., Ott M., Goyal N., Du J., Joshi M., Chen D., Levy O., Lewis M., Zettlemoyer L., Stoyanov V. RoBERTa: A Robustly Optimized BERT Pretraining Approach. [Электронный ресурс] – Режим доступа: https://arxiv.org/pdf/1907.11692, дата обращения 21.06.24.
- Yang Z., Dai Z., Yang Y., Carbonell J., Salakhutdinov R., Le Q.V. XLNet: Generalized Autoregressive Pretraining for Language Understanding. [Электронный ресурс] – Режим доступа: https://arxiv.org/pdf/1906.08237, дата обращения 21.06.24.
- Bharati S., Mondal M.R.H., Podder P., Surya Prasath V.B. Federated learning: Applications, challenges and future directions. [Электронный ресурс] – Режим доступа: https://arxiv.org/pdf/2205.09513, дата обращения 21.06.24.
- Abadi M., Chu A., Goodfellow I., McMahan H.B., Mironov I., Talwar K., Zhang L. Deep Learning with Differential Privacy. [Электронный ресурс] – Режим доступа: https://arxiv.org/pdf/1607.00133, дата обращения 21.06.24.