Илон Маск потребовал приостановить масштабные эксперименты в области ИИ. Фото Reuters
22 марта было обнародовано открытое письмо Илона Маска, Стива Возняка, а также более 1 тыс. других экспертов в области искусственного интеллекта (ИИ) и представителей IT-индустрии «Приостановить масштабные эксперименты с искусственным интеллектом». «Системы ИИ с интеллектом, конкурирующим с человеком, могут представлять серьезную опасность для общества и человечества, как показали обширные исследования и признано ведущими лабораториями искусственного интеллекта», – отмечается в этом документе. Авторы письма подчеркивают: «Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски управляемыми».
Письмо опубликовано после того, как к группе обеспокоенных развитием ИИ присоединился Европол, предупредивший о возможности злоупотребления злоумышленниками системами вроде ChatGPT – их можно использовать для фишинга, дезинформации и совершения киберпреступлений.
Действительно, ChatGPT стал, возможно, самым обсуждаемым явлением в 2023 году. Причем это касается не только сугубо технологической сферы, но и практически любых аспектов функционирования современного общества – от образования до юриспруденции, от геополитики до медицины и военной сферы. Появилось даже определение – «поколение GPT».
ChatGPT фактически стал материализованным аналогом и синонимом понятия «искусственный интеллект». И это достаточно удивительно. Ведь ChatGPT – всего лишь чат-бот, который работает на модели искусственного интеллекта GPT (Generative Pre-trained Transformer), разработанной компанией OpenAI.
ChatGPT был обучен на 570 Гб текстовых данных, что составляет около 300 млрд слов. Чат-бот предназначен для генерации человекоподобных ответов на заданные вопросы или фразы. Он всегда старается понять контекст вопроса и сгенерировать подходящий ответ. Чат-бот способен генерировать текст в различных стилях и тематиках, может использоваться в различных сферах и областях для облегчения рутинных или даже творческих задач, выполняемых человеком… Но у этой медали есть и обратная сторона.
Первые катастрофы из-за искусственного интеллекта произойдут в ближайшие год-два, прогнозировал директор по IT компании «Северсталь Менеджмент» Сергей Дунаев летом 2023 года на конференции в Нижнем Новгороде. Но, кажется, началось уже сейчас.
13 июля Федеральная торговая комиссия США (Federal Trade Commission, FTC) сообщила, что она изучает вопрос о возможном причинении ущерба пользователям в результате предоставления ложной информации о них чат-ботом ChatGPT.
Ведущий исследователь ИИ, соучредитель компании DeepMind Шейн Легг в ноябре выдал свой прогноз развития ситуации. Языковая модель следующего поколения, по его мнению, вполне может стать началом появления так называемого общего (глубокого) искусственного интеллекта (AGI). В 2024 году ожидается появление GPT-5 от компании OpenAI. И эта новая нейросеть с некоторой вероятностью может попытаться совершить побег из-под контроля людей. А к 2026 году, как ожидается, нейросети сами смогут создавать ИИ.
Составители словаря Collins Dictionary, одного из самых авторитетных словарей английского языка, сочли словосочетание «искусственный интеллект» (англ. – AI) словом 2023 года. А Кембриджский словарь английского языка (Cambridge Dictionary) назвал словом года глагол «галлюцинировать» (hallucinate), который закрепился за правдоподобными, но по факту неверными ответами, которые выдавал ChatGPT. Словарь определяет этот термин как генерирование искусственным интеллектом «ложной информации».