Насколько прозрачны крупные языковые модели?

Насколько прозрачны крупные лингвистические модели?

Стэнфорд предлагает индекс для измерения прозрачности LLM, и результаты не обнадеживают

Фото Marc Schulte на Unsplash

Стэнфорд измерил, насколько прозрачны компании при использовании своих больших языковых моделей (LLM) и других базовых моделей.

Страх перед неизвестностью

Фото Brad Helmink на Unsplash

“Самое старое и сильное эмоциональное состояние человечества – страх, а старый и сильный вид страха – страх перед неизвестностью” – Г.П. Лавкрафт

В мае этого года Джеффри Хинтон, названный многими отцом искусственного интеллекта, сказал: “Я внезапно изменил свои взгляды на то, будут ли эти вещи умнее нас”. Хинтон сказал, что его удивили возможности GPT-4 и хочет привлечь внимание общественности к серьезным рискам искусственного интеллекта.

Хотя искусственный интеллект, вероятно, не приведет человечество к исчезновению, многие эксперты согласны в том, что он представляет угрозу. Часто эти риски даже не соответствуют представлениям, возникшим во время разработки технологии. Например, социальные сети и модерация темной стороной способствовали геноциду рохинджа в Мьянме.

Кроме того, скандал с Кембриджским аналитическим центром и другие скандалы, связанные с модерацией и управлением данными, показали, что непрозрачность технологий приводит к вреду. Поэтому возросли требования к прозрачности моделей искусственного интеллекта:

“сделать прозрачность, справедливость и ответственность основой управления искусственным интеллектом … [и] рассмотреть принятие декларации о правах на данные, которая закрепляет прозрачность” – Антониу Гутерреш, Генеральный секретарь ООН, источник

В то время, когда большие языковые модели (LLMs) все чаще используются для чувствительных приложений (медицина, право и т.д.), нам необходимо иметь возможность систематически тестировать их на ошибки, предубеждения и потенциальные риски. Несколько исследований показывают, что LLM могут также утечь персональные данные, поэтому нам просто нужно знать их ограничения и данные, на которых они обучены.