Süni intellektin hallüsinasiyası: Redaktələr arasındakı fərq

Vikipediya, azad ensiklopediya
Naviqasiyaya keç Axtarışa keç
Silinən məzmun Əlavə edilmiş məzmun
Redaktənin izahı yoxdur
Sətir 14: Sətir 14:
== İstinadlar ==
== İstinadlar ==
{{İstinad siyahısı}}
{{İstinad siyahısı}}
== Xarici keçidlər ==
{{Diferensial hesablama}}

13:07, 7 dekabr 2023 tarixinə olan versiya

ChatGPT, səhv URL əsasında mövcud olmayan New York Times məqaləsini izah edir.
ChatGPT 3.5 ingilis dilindən süni Lojban dilinə "tərcümə" edərək (yeni söhbətdə) yenidən Yaradılış 1:6-dan (RSV) sürreal artefakt yaradır.

Süni intellektin hallüsinasiyasısüni intellekt tərəfindən fakt kimi təqdim edilən yalan və ya çaşdırıcı məlumatları ehtiva edən cavab.[1][2][3]

Məsələn, hallüsinasiya edən bir çatbotdan şirkət üçün maliyyə hesabatı hazırlamaq istənildikdə, yanlış olaraq şirkətin gəlirinin 13,6 milyard dollar olduğunu göstərə bilər.[4] Bu cür hadisələr insan psixologiyasındakı hallüsinasiya fenomeni ilə boş anatologiyada "hallüsinasiyalar" adlanır. Bununla belə, əsas fərqlərdən biri odur ki, insan hallüsinasiyası adətən yanlış qavrayışlarla əlaqələndirilir, lakin Sİ halüsinasiyası əsassız cavablar və ya inanclar kateqoriyası ilə əlaqələndirilir.[3] Bəzi tədqiqatçılar hesab edirlər ki, xüsusi "Sİ hallüsinasiyası" termini əsassız olaraq kompüterləri antropomorflaşdırır.[5]

Süni intellekt hallüsinasiyası 2022-ci ildə ChatGPT kimi müəyyən böyük dil modellərinin (LLM) tətbiqi ilə ortaya çıxdı.[6] İstifadəçilər şikayət edirdilər ki, bu cür çatbotlar çox vaxt yaratdıqları məzmuna ağlabatan səslənən təsadüfi yalanları mənasız şəkildə yerləşdirirlər.[7] 2023-cü ilə qədər analitiklər hallüsinasiyaları LLM texnologiyasında əsas problem hesab edirdilər. Bəzi təxminlərə görə çatbotların hallüsinasiya etmə ehtimalı 27%-dir.[8][9]

Analiz

Wired tərəfindən sitat gətirilən müxtəlif tədqiqatçılar rəqib hallüsinasiyaları yüksək ölçülü statistik hadisə kimi təsnif etmişlər və ya hallüsinasiyaları kifayət qədər təlim məlumatlarının olmaması ilə əlaqələndirmişlər. Bəzi tədqiqatçılar hesab edirlər ki, insanlar tərəfindən obyektin aşkarlanması zamanı "hallüsinasiyalar" kimi təsnif edilən bəzi "yanlış" cavablar əslində təlim məlumatları ilə əsaslandırıla bilər və ya hətta süni intellekt insanların görə bilmədiyi "düzgün" cavabı verir.

Məsələn, insana adi bir it kimi görünən obrazın süni intellekt tərəfindən əslində (real şəkillərdə) yalnız pişiyə baxarkən görünən kiçik modellər ehtiva etdiyi görülə bilər. Süni intellekt insanların həssas olmadığı real dünyadakı vizual nümunələri oxuyur.[10] Ancaq bu fikirlər digər tədqiqatçılar tərəfindən qəbul edilməyib.[11] Məsələn, modellərin səthi statistikaya qarşı qərəzli ola biləcə və bunun rəqib təlimin real dünya ssenarilərində möhkəm olmamasına səbəb ola biləcəyi bildirildi.[11]

İstinadlar

  1. "Definition of HALLUCINATION". www.merriam-webster.com (ingilis). 2023-10-21. İstifadə tarixi: 2023-10-29.
  2. Joshua Maynez; Shashi Narayan; Bernd Bohnet; Ryan McDonald. On Faithfulness and Factuality in Abstractive Summarization // Proceedings of The 58th Annual Meeting of the Association for Computational Linguistics (ACL) (2020). 2020. arXiv:2005.00661. İstifadə tarixi: 2023-09-26.
  3. 1 2 Ji, Ziwei; Lee, Nayeon; Frieske, Rita; Yu, Tiezheng; Su, Dan; Xu, Yan; Ishii, Etsuko; Bang, Yejin; Dai, Wenliang; Madotto, Andrea; Fung, Pascale. "Survey of Hallucination in Natural Language Generation" (pdf). ACM Computing Surveys. Association for Computing Machinery. 55 (12). November 2022: 1–38. arXiv:2202.03629. doi:10.1145/3571730. İstifadə tarixi: 15 January 2023.
  4. Lin, Connie. "How to easily trick OpenAI's genius new ChatGPT". Fast Company. 5 December 2022. İstifadə tarixi: 6 January 2023.
  5. Edwards, Benj. "Why ChatGPT and Bing Chat are so good at making things up". Ars Technica (ingilis). 6 April 2023. İstifadə tarixi: 11 June 2023.
  6. Zhuo, Terry Yue; Huang, Yujin; Chen, Chunyang; Xing, Zhenchang. "Exploring AI Ethics of ChatGPT: A Diagnostic Analysis". 2023. arXiv:2301.12867 [cs.CL].
  7. Seife, Charles. "The Alarming Deceptions at the Heart of an Astounding New Chatbot". Slate. 13 December 2022. İstifadə tarixi: 16 February 2023.
  8. Leswing, Kif. "Microsoft's Bing A.I. made several factual errors in last week's launch demo". CNBC (ingilis). 14 February 2023. İstifadə tarixi: 16 February 2023.
  9. "Chatbots May 'Hallucinate' More Often Than Many Realize". The New York Times.
  10. Matsakis, Louise. "Artificial Intelligence May Not 'Hallucinate' After All". Wired. 8 May 2019. İstifadə tarixi: 29 December 2022.
  11. 1 2 Gilmer, Justin; Hendrycks, Dan. "A Discussion of 'Adversarial Examples Are Not Bugs, They Are Features': Adversarial Example Researchers Need to Expand What is Meant by 'Robustness'". Distill. 4 (8). 2019-08-06. doi:10.23915/distill.00019.1. İstifadə tarixi: 2023-01-24.

Xarici keçidlər