Насколько прозрачны крупные языковые модели?
Насколько прозрачны крупные лингвистические модели?
Стэнфорд предлагает индекс для измерения прозрачности LLM, и результаты не обнадеживают
Стэнфорд измерил, насколько прозрачны компании при использовании своих больших языковых моделей (LLM) и других базовых моделей.
Страх перед неизвестностью
“Самое старое и сильное эмоциональное состояние человечества – страх, а старый и сильный вид страха – страх перед неизвестностью” – Г.П. Лавкрафт
В мае этого года Джеффри Хинтон, названный многими отцом искусственного интеллекта, сказал: “Я внезапно изменил свои взгляды на то, будут ли эти вещи умнее нас”. Хинтон сказал, что его удивили возможности GPT-4 и хочет привлечь внимание общественности к серьезным рискам искусственного интеллекта.
Хотя искусственный интеллект, вероятно, не приведет человечество к исчезновению, многие эксперты согласны в том, что он представляет угрозу. Часто эти риски даже не соответствуют представлениям, возникшим во время разработки технологии. Например, социальные сети и модерация темной стороной способствовали геноциду рохинджа в Мьянме.
- Исследование вклада искусственного интеллекта в этику и ESG в предприятиях
- От GPT до Mistral-7B Захватывающий скачок вперед в области искусственного интеллекта в разговорах
- Google AI представляет Spectron первую модель AI на основе распознавания речи, обученную от начала до конца для прямой обработки спектрограмм как входных, так и выходных данных.
Кроме того, скандал с Кембриджским аналитическим центром и другие скандалы, связанные с модерацией и управлением данными, показали, что непрозрачность технологий приводит к вреду. Поэтому возросли требования к прозрачности моделей искусственного интеллекта:
“сделать прозрачность, справедливость и ответственность основой управления искусственным интеллектом … [и] рассмотреть принятие декларации о правах на данные, которая закрепляет прозрачность” – Антониу Гутерреш, Генеральный секретарь ООН, источник
В то время, когда большие языковые модели (LLMs) все чаще используются для чувствительных приложений (медицина, право и т.д.), нам необходимо иметь возможность систематически тестировать их на ошибки, предубеждения и потенциальные риски. Несколько исследований показывают, что LLM могут также утечь персональные данные, поэтому нам просто нужно знать их ограничения и данные, на которых они обучены.