ЭТО КРИК ОТЧАЯНИЯ
В идеале нужно создавать общемировой «этический кодекс» для искусственного интеллекта
Илон Маск, Стив Возняк и еще более тысячи «гуру» в области IT-технологий выступили с открытым письмом, призвав приостановить обучение систем искусственного интеллекта (ИИ). Это напоминает легенду о создателе Франкенштейна, который ужаснулся своему детищу, но было уже поздно. Поводом для беспокойства стал чат-бот ChatGPT, созданный в конце прошлого года на основе ИИ, который способен вести диалог, сочинять стихи, писать сценарии, спорить, создавать код программирования. Это все уже не игрушки. Нейросеть может также производить финансовый анализ, делать внятные (то есть с пониманием дела) резюме технических статей и научных концепций, давать всевозможные прогнозы и персональные (персонифицированные, главное) советы. В том числе этические, хотя этика была до сих пор недоступна ИИ в принципе. Последний непавший рубеж — это, пожалуй, юмор, который ИИ пока не по мозгам.
Чат-бот способен выполнять задания во многих областях знаний почти как человек. Этим он отличается от других нейросетей. Он также способен к самообучению. Соответствующее приложение на смартфоне набирает число пользователей миллионными темпами, ранее невиданными. ИИ «пошел в массы» в буквальном смысле (ежемесячная подписка стоит всего-то 20 долларов). Маск в том числе стоял у истоков этого изобретения как один из инвесторов и основателей компании-создателя OpenAI.
Все это породило у причастных к делу специалистов страх, что процесс выходит из-под контроля. Письмо 1000 — это крик отчаяния. Особенно когда такие креативные индивидуалисты взывают к правительствам: мол, сделайте хоть что-нибудь. Тихая (пока) паника начинает охватывать разные структуры. Инвестбанкиры из Goldman Sachs предрекают, что ИИ может уничтожить до 300 млн рабочих мест. Список профессий под угрозой даже трудно представить полностью. Это могут быть финансовые и прочие аналитики, переводчики, сценаристы и журналисты, отчасти сами же программисты и системные операторы, маркетологи, бухгалтеры и аудиторы, юристы, чиновники-управленцы. Да что там сценаристы. Уже скоро можно будет не только сгенерировать сценарий в ChatGPT, но и сделать полнометражный фильм без дорогостоящих звезд не хуже очередного «Аватара».
Эксперты по криминалистике предвидят взрывной рост киберпреступлений (с помощью ИИ), фишинга, распространения дезинформации, созданной коварно по принципу наибольшего правдоподобия. Если ChatGPT будет настроен на использование социальной инженерии, то он будет способен создавать максимально убедительный текст для фишингового сайта или переписки с такими личными подробностями, которые введут в заблуждение самого подозрительного пользователя. Он сможет вести диалог и убеждать собеседника в своей правоте, создавать заманчивые предложения, выдавая себя за реального человека. Скажем, даже вашего родственника.
Уже две крупнейшие корпорации — Microsoft и Amazon — призвали сотрудников ограничить общение с ChatGPT, к которому все чаще прибегают для решения практических задач в плане ограничения передачи персональных данных. В Китае, работая на упреждение, запретили ChatGPT как «оружие американской пропаганды». Но там, в стране тотального контроля за гражданами в контексте программы «социального кредита» (развитой системы поощрений и наказаний за хорошее или плохое поведение), уже создается собственный аналог. Но и в Италии тоже уже призывают запретить чат-бот, поскольку речь о неконтролируемом доступе и распространении персональных данных. Персональные данные могут быть лишь предлогом, на деле речь может идти о запрете по причине непредсказуемых последствий.
Брокерские компании запрещают ChatGPT, опасаясь, что он может просто парализовать их работу. Одна из ведущих адвокатских контор США обратилась в Федеральную торговую комиссию США с призывом остановить выпуск новых коммерческих версий системы искусственного интеллекта GPT-4 (это будет уже четвертое поколение чат-бота), поскольку она сможет манипулировать фондовым рынком, нарушая все стандарты прозрачности и подотчетности.
Университеты просто в панике: это ж теперь любая курсовая, дипломная работа может быть написана чат-ботом (в России уже был успешный опыт написания диплома), а там и до диссертации недалеко. Это обрушит всю систему образования, как мы ее знаем. Один из ведущих экспертов по ИИ Элиезер Юдковский, живописуя апокалипсис вышедшего из-под контроля ИИ, вообще призвал бомбить центры обработки данных, пока еще не создан такой ИИ, который станет врагом человечества N 1 и будет в миллионы раз умнее людей.
Человечество не первый раз сталкивается с тем, что технологический прогресс намного опережает «гуманитарное» развитие общества, формирование соответствующих этических норм. Классический пример — создание все новых видов вооружений, которые используются в бесконечных войнах, отнюдь прогрессу не способствующих. Гонку вооружений люди еще пытаются как-то контролировать. Не всегда, правда, успешно. Так и теперь в идеале нужно создавать общемировой единый «этический кодекс» для ИИ, договариваться об общих правилах — и ограничениях — его использования. Надо кодифицировать на международном уровне основные принципы защиты базовых прав человека от неправомерного использования ИИ. Пока же полностью отсутствует правовая база для запрета использования ИИ в преступных целях — от мошенничества и социальной инженерии до проведения информационных атак и так далее.