ПРАВОВЫЕ МЕХАНИЗМЫ УПРАВЛЕНИЯ РИСКАМИ ПРИ ПРИМЕНЕНИИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В СИСТЕМЕ БАНКОВСКОГО СКОРИНГА

Авторы

  • Амиржон Мардонов

DOI:

https://doi.org/10.47390/SPR1342V5SI4Y2025N31

Ключевые слова:

искусственный интеллект, кредитный скоринг, алгоритмический риск, дискриминация, прозрачность, регулирование и персональные данные.

Аннотация

В статье рассматриваются правовые механизмы управления рисками при внедрении систем искусственного интеллекта (ИИ) в банковский скоринг. Проанализированы международные стандарты и подходы – GDPR, проект Регламента ЕС об ИИ (EU AI Act), стандарт ISO/IEC 23894:2023 – а также законодательство Республики Узбекистан (Закон «О персональных данных», Стратегия развития ИИ до 2030 года и др.). На основе сравнительного анализа и изучения кейсов (Apple Card в США, SCHUFA в Германии, Asia Alliance Bank в Узбекистане) выявлены ключевые риски применения ИИ в кредитном скоринге: дискриминация, непрозрачность алгоритмов, нарушение прав потребителей и неадекватность моделей. Рассматриваются существующие правовые меры для минимизации данных рисков, такие как требования по недопущению алгоритмической дискриминации, обеспечение прозрачности и объяснимости решений, защита персональных данных и права потребителей на обжалование автоматизированных решений. В разделе обсуждения предложены рекомендации по совершенствованию регулирования использования ИИ в сфере банковского кредитования в Узбекистане с учётом международного опыта – включая разработку специальных нормативных актов по высоко рисковым ИИ-системам, обязательное проведение оценок рисков и аудитов алгоритмов, усиление надзора за соблюдением принципов справедливости и прозрачности. Реализация данных мер позволит уменьшить вероятность алгоритмических ошибок и злоупотреблений, повысить уровень доверия к ИИ-системам в финансовом секторе и обеспечить баланс между инновациями и защитой прав граждан

Библиографические ссылки

1. Jordan, M. I., & Mitchell, T. M. (2015). Machine learning: Trends, perspectives, and prospects. Science, 349(6245), 255-260.

2. Citron, D. K., & Pasquale, F. (2014). The scored society: Due process for automated predictions. Washington Law Review, 89, 1-33.

3. Hanson, M., Cook, S., & Vaidhyanathan, S. (2019). The Apple Card Didn't 'See' Gender—and That's the Problem. Wired.

4. Bode, M., & Helberger, N. (2020). The GDPR and algorithmic decision-making – Safeguarding individual rights but forgetting society. Journal of Consumer Policy, 43, 525-542.

5. Kearns, M., & Roth, A. (2019). The ethical algorithm: The science of socially aware algorithm design. Oxford University Press.

6. Kaminski, M. E., & Malgieri, G. (2021). Multi-layered explanations from algorithmic impact assessments in the GDPR. In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency.

7. Felländer, A., Siri, S., & Teigland, R. (2018). The three phases of regulatory development for AI: A proposed model for balancing innovation and risk. Scandinavian Journal of Risk and Insurance, 34(2), 76-95.

8. Zweigert, K., & Kötz, H. (1998). Introduction to comparative law. Oxford University Press.

9. Article 29 Working Party. (2018). Guidelines on Automated individual decision-making and Profiling for the purposes of Regulation 2016/679.

10. Malgieri, G. (2023). The CJEU's SCHUFA Decision: Automated Credit Scoring Under Art. 22 GDPR. European Data Protection Law Review, 9(3), 386-395.

11. Veale, M., & Borgesius, F. Z. (2021). Demystifying the Draft EU Artificial Intelligence Act. Computer Law Review International, 22(4), 97-112.

12. Dignum, V. (2023). A comprehensive approach to AI risk management. Nature Machine Intelligence, 5, 706-714.

13. Бегматов, А. С. (2020). Правовые аспекты защиты персональных данных в Республике Узбекистан. Вестник ТГЮУ, 4, 56-67.

14. Министерство цифровых технологий Республики Узбекистан. Стратегия развития искусственного интеллекта URL: https://gov.uz/ru/digital/pages/about

15. Fuster, A., Goldsmith-Pinkham, P., Ramadorai, T., & Walther, A. (2022). Predictably unequal? The effects of machine learning on credit markets. The Journal of Finance, 77(1), 5-47.

16. Zednik, C. (2021). Solving the black box problem: A normative framework for explainable artificial intelligence. Philosophy & Technology, 34, 265-288.

17. Edwards, L., & Veale, M. (2017). Slave to the algorithm? Why a 'right to an explanation' is probably not the remedy you are looking for. Duke Law & Technology Review, 16, 18.

18. Arrieta, A. B., Díaz-Rodríguez, N., Del Ser, J., Bennetot, A., Tabik, S., Barbado, A., ... & Herrera, F. (2020). Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI. Information Fusion, 58, 82-115.

19. Federal Trade Commission. (2018). Fair Credit Reporting Act provisions and requirements relating to consumer notifications.

20. Ramsay, I. (2016). Consumer law and policy: Text and materials on regulating consumer markets. Bloomsbury Publishing.

21. Hand, D. J., & Henley, W. E. (1997). Statistical classification methods in consumer credit scoring: a review. Journal of the Royal Statistical Society: Series A (Statistics in Society), 160(3), 523-541.

22. Thomas, L. C. (2009). Consumer credit models: Pricing, profit and portfolios. Oxford University Press, 228-236.

23. Waldman, A. E. (2020). Power, process, and automated decision-making. Fordham Law Review, 88(2), 613-648.

Загрузки

Прислана

2025-05-21

Опубликован

2025-05-27

Как цитировать

Мардонов, А. (2025). ПРАВОВЫЕ МЕХАНИЗМЫ УПРАВЛЕНИЯ РИСКАМИ ПРИ ПРИМЕНЕНИИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В СИСТЕМЕ БАНКОВСКОГО СКОРИНГА. Ижтимоий-гуманитар фанларнинг долзарб муаммолари Актуальные проблемы социально-гуманитарных наук Actual Problems of Humanities and Social Sciences., 5(S/4), 192–202. https://doi.org/10.47390/SPR1342V5SI4Y2025N31