Хочешь учиться эффективнее с ИИ? Пройди бесплатный 40-минутный курс

время чтения: 2 мин

Сэм Альтман — СЕО года, скандальный релиз Google Gemini, регулирование ИИ законом — топ AI-новостей недели и внезапно про монашку

В свежем ай-яй-яй AI-дайджесте — самые яркие инфоповоды AI за неделю. Комментирует главное лидер комьюнити Anywhere Club Виктор Шеленченко.

Anywhere Club community leader, Viktar Shalenchanka

Новость #1 — Сэм Альтман — СЕО года

— Тейлор Свифт — человек года по версии журнала Time. Почему это интересно в контексте новостей про ИИ? Одним из номинантов на премию журнала был Сэм Альтман, CEO (а также бывший СЕО и снова СЕО) OpenAI. То, что Альтман не выиграл номинацию, во многом свидетельствует о том, что большинство людей все еще не понимает важность ИИ в будущем человечества. Но сам факт выдвижения Сэма уж точно показывает, что игнорировать ИИ-бум невозможно. Об этом, конечно, говорит и победа Альтмана в менее заметой номинации: СЕО года.

Новость #2 — Релиз Google Gemini

— Другим важным событием года стал долгожданный релиз Google Gemini — генеративной модели, которая конкурирует аж с GPT-4. Нам было представлено видео, на котором модель в реальном времени описывает действия человека, играет в «Камень, ножницы, бумага», предсказывает жесты. Впрочем, по старой доброй традиции Google, не обошлось без скандала. Красивое демо, которое компания показывала во время релиза, оказалось не то чтобы фейковым, но немного улучшенным. Компания призналась, что в угоду маркетингу видео было смонтировано, и на самом деле Gemini ведет себя куда менее умно, чем было показано. Что не отменяет факта появления еще одного сильного конкурента у OpenAI, а это очень круто.

Новость #3 — Закон об ИИ в Евросоюзе

— А вот в Евросоюзе с конкуренцией между ИИ теперь будет посложнее. Был принят закон об ИИ — первый в мире комплексный набор правил, регулирующий искусственный интеллект. Предусматриваются огромные штрафы за причинение вреда с использованием ИИ. А также обязательная оценка на потенциальные риски всех моделей, которые попали в категорию «высокий риск». В нее попадает даже GPT 3.5. Интересно, что предусмотрены послабления для open-source моделей. Ну и конечно, очень много ограничений на работу с персональными данными. С одной стороны, регулирование в сфере ИИ напрашивалось с момента выхода ChatGPT в паблик, который, по сути, до сих пор находится в серой зоне по многим параметрам. С другой же, ЕС — как всегда в своем репертуаре: сильных моделей у нас практически нет, но жесткие рамки закона мы все равно создадим.

Сюрприз-сюрприз

— Поскольку данная рубрика является хоть и новостной, но авторской, ничто не мешает мне подкинуть вам (да и редактору) маленький сюрприз. Пользуясь случаем, хочу порекомендовать небольшой сериал про то, что было бы, если бы человечество начало жить по инструкциям ChatGPT уже завтра. Фантастический и немного сюрреалистичный сериал под названием «Миссис Дэвис» рассказывает про монашку, которая борется с чат-ботом, управляющим жизнью населения планеты. Приятного просмотра.

Больше AI-новостей — на YouTube-канале Anywhere Club.

Хочешь учиться эффективнее с ИИ?

Пройди бесплатный курс!