Сооснователь Google Brain утверждает, что технологические компании преувеличивают опасности и угрозы искусственного интеллекта (ИИ).

Сооснователь Google Brain развеивает опасения по поводу искусственного интеллекта компании преувеличивают угрозы и риски

Андрю Нг, преподаватель-самостоятельник в Стэнфордском университете и сооснователь Google Brain, утверждает, что компании раздувают страхи о рисках, связанных с искусственным интеллектом. Андрю сделал это заявление в The Australian Financial Review, заявляя, что технологические компании надеются на более жесткое регулирование с тем, чтобы “ИИ мог нас уничтожить”.

Он сказал журналу: “Определенно есть крупные технологические компании, которые предпочли бы не конкурировать с открытым программным обеспечением, поэтому они создают страх перед ИИ, приводящий к гибели человечества, … Это было оружием лоббистов при аргументировании за принятие законодательства, которое могло бы нанести большой вред сообществу открытого исходного кода”.

Эти опасения не безосновательны, если взглянуть на историю. Компании с годами, достигая определенного уровня захвата рынка, часто начинают лоббировать правительства за более жесткие регулирования в своих отраслях.

Что в конечном счете мало что делает для улучшения положения потребителей, но повышает планку для новичков. По сути, это уменьшает конкуренцию. Все это сопровождается движениями во всем мире со стороны государственных органов, ищущих способы регулировать ИИ, не создавая преград для инноваций.

Множество групп имеют многое сказать о ИИ. Компания U.S. Chamber просит Конгресс принять меры по регулированию ИИ, а Goldman Sachs публикует отчеты о общем экономическом подъеме, который ИИ может принести в ближайшем будущем.

Пока Китай оказался во главе с ИИ регулирования с требованием национальных водяных знаков и других требований для генеративных инструментов ИИ. ЕС немного отстает, а Соединенные Штаты все еще на ранних стадиях создания фреймворка ИИ.

Однако, по мнению Андрю Нг, риски, на которые он указывает, – это лицензионные требования к ИИ, которые могут вытеснить конкуренцию и нанести ущерб инновациям в целом. Он не является против регулирования, он сказал журналу, что любой фреймворк требует тщательного подхода.

Опасения относительно рисков, связанных с ИИ, возросли по мере роста технологии в последние два года. Весной группа из 1000 исследователей попросила компании по ИИ приостановить исследования, превышающие уровень GPT-4.

Мало что было сделано, но это вызвало некоторые вопросы как внутри, так и вне отрасли, поскольку все больше людей задается вопросом, как следует рассчитывать риск ИИ. В любом случае, ясно, что мнения об ИИ, его рисках и преимуществах так разнообразны, как и сами исследователи, стоящие за этой технологией.