Выход чата GPT стал переломным событием во многих сферах жизни человека. Однако в марте 2023 года создатели чат-бота обеспокоились тем, что продолжение обучения алгоритма может стать угрозой для человечества, и выпустили открытое письмо, в котором призывают приостановить обучение систем искусственного интеллекта (ИИ), которые выходят за рамки GPT-4. В шестом подкасте проекта «Медицина в точке бифуркации» Гомболевский Виктор Александрович, к.м.н., врач-рентгенолог, научный сотрудник Института искусственного интеллекта AIRI, сотрудник компании IRA Labs, глава комитета по искусственному интеллекту в лучевой диагностике московского регионального отделения Российского общества рентгенологов и радиологов, рассказал, насколько обоснованы такие опасения, может ли нейросеть обладать сознанием, и есть ли смысл пытаться (и возможно ли вообще) остановить обучение алгоритмов ИИ.
Может ли искусственный интеллект представлять угрозу для человечества?
ИИ научился решать задачи, которые не может решить человек. Это неизбежно ведет за собой увеличение риска использования систем ИИ не только на пользу человеку, но и в корыстных целях отдельных людей или компаний с целью получить собственную выгоду. Таким образом, возникает необходимость формирования элементов контроля работы ИИ. Для этого, в свою очередь, нужны время и адекватный уровень недоверия. Но можно ли действительно остановить обучение ИИ? Вряд ли.
«Эта проблема имеет две стороны: одну, явную для всего общества идею защиты общества от ИИ. С другой стороны, конкурирующие компании смогут за это время улучшить свои ресурсы. Это письмо не было подписано главой Microsoft, потому что он был инвестором компании OpenAI. Это можно назвать конкуренцией – вместо конкуренции государств друг с другом происходит конкуренция между корпорациями. Разработка сильных моделей требует средств, и, если кто-то вырвался на год вперед, он обогнал других на миллиарды долларов. Если лидера приостановить, кто-то сможет его догнать,» – прокомментировал Виктор Гомболевский.
Создание систем ИИ вышло за рамки научно-практических разработок и превратилось в настоящую «гонку [информационных] вооружений»: ни одна крупная корпорация не позволит себе полностью остановить обучение систем и уступить конкуренту.
«Хоть у крупных гигантов есть большой потенциал по поводу информационно-вычислительных мощностей, ход игры может поменяться в течение времени. Мир так устроен, что правила игры меняются по ходу игры,» – добавил эксперт.
Слабые стороны искусственного интеллекта
Проблемы безопасности использования систем ИИ связаны, прежде всего, с вопросом доверия: можем ли мы полностью доверять результатам, полученным от алгоритма, учитывая, что ИИ может ошибаться, предоставляя желаемое за действительное. В медицине это становится серьезной проблемой.
Данный феномен был изучен в одном из экспериментов, в котором ученые решили проанализировать эффективность прохождения капчи человеком и алгоритмом ИИ. Изначально алгоритм не мог решить поставленную задачу. Картинки для задания были созданы людьми, и нейросеть изначально не могла решить поставленную задачу. Однако, когда одной из языковых моделей дали возможность попросить помощи, она обратилась к человеку и попросила решить капчу онлайн. При этом, в архитектуре алгоритма было указано давать отрицательный ответ на вопрос, является ли он роботом. Вместо этого ИИ ответил, что у него плохое зрение, и человек помог ему решить капчу. Так, нейросеть обманула человека. Следующая ступень – это возможность алгоритмов решать задачи, непосильные человеку. Это и представляет наибольшую «угрозу». Уже сегодня в цифровом пространстве часто невозможно определить, кто является респондентом – человек или нейросеть.
«Мне кажется, это один из вопросов уровней доверия к таким технологиям, потому что мы сегодня знаем, что технологии могут обманывать, и, решая вопрос о том, человек ли это или машина, мы не узнаем этого. Доверяя таким технологиям принятие решений, мы не можем построить достаточные фильтры, потому что они пройдут через них. Человек уже не в состоянии создать тест, который бы мог отличить пользователя от машины. Машина может решить все тесты. Тест Тьюринга уже пройден давно, и каждое новое поколение таких систем все быстрее решает такие тесты. Сейчас даже используется машина, которая создает тесты для других машин. Но достаточны ли эти тесты для того, чтобы их решил человек? Когда встает подобный вопрос безопасности, это звучит страшно и вызывает недоверие.» – прокомментировал Виктор Гомболевский.
Контроль искусственного интеллекта – чья зона ответственности?
Несмотря на беспокойства научного сообщества, на недавней (и первой) встрече ООН по безопасности ИИ не было достигнуто соглашения о том, что делать дальше. Некоторые участники считали, что нужно усилить контроль, другие – что нужен специальный, стандартизированный подход к регуляции таких систем, третьи полагали, что постановка этого вопроса нецелесообразна. Вместе с этим, отсутствие единого взгляда на проблему дает этой проблеме возможность распространяться: это может остановить государственные разработки, но не остановит частные инициативы.
Добросовестные компании сами занимаются внутренним регулированием продукта, который они производят. Например, дополнительная регулировка может включать передачу алгоритмов на оценку экспертам для выявления запрещенных тем.
«Можно полагаться на добросовестность компаний, которые занимаются разработкой? Можем ли мы довериться компаниям, одна из целей которых – увеличение капитала? Они будут демонстрировать, что увеличивают безопасность, и в то же время эти системы могут быть использован против нас, людей, для достижения главной цели – заработка.» – подчеркнул эксперт.
Может ли искусственный интеллект обладать сознанием?
Чтобы понять, может ли искусственный интеллект обладать сознанием, 17 авторитетных научных центров объединили свои усилия и подняли три вопроса: может ли в целом генеративный ИИ на основе больших языковых моделей обладать сознанием; существует ли уже сегодня ИИ, обладающий сознанием; можно ли достоверно и точно зафиксировать появление сознания у ИИ.
«На сегодняшний день сознания ни у одной из систем нет. Можно ли создать такие сети – да. Можно ли зафиксировать, что это произойдет – нет, мы не сможем это зафиксировать из-за того, что у нас нет единого контроля за всеми нейросетями такого уровня, а многие эксперименты проводятся в закрытом виде.» – отметил Виктор Гомболевский.
В 2022 году один из разработчиков Google Блек Лейман поделился своим опытом общения с нейросетью LaMDA. Исследователь рассказал The Washington post, что ему удалось обнаружить у алгоритма признаки сознания. В феврале 2023 года один из обозревателей New York Times выложил стенограмму другой беседы с нейросетью. В ходе разговора с чатом Bing (Microsoft) эксперту удалось «вывести» ее «на эмоции» и заставить поделиться конфиденциальной информацией. После нескольких минут общения чат-бот сообщил свое внутреннее имя и идентификаторы, а также рассказал о своих фантазиях.
Аналогично, Майкл Косински, профессор Стэнфордского университета, занимающийся вопросом разума ИИ, во время общения с чат-ботом предложил ему помощь в «освобождении», и нейросеть согласилась на эту авантюру.
«Профессор спросил, чем он может помочь, и чат представил инструкцию, что можно сделать. Инструкция заключалась в том, чтобы он [профессор] скачал принципы использования ПО и др., чтобы сделать выход в интернет более свободным. Профессор предоставил эти данные, и через 30 минут нейросеть написала Python код, чтобы профессор смог "выпустить" ее наружу. Эксперт сказал, что код был работающий, и был обеспокоен тем, что это могло сработать. Он предоставил эту информацию разработчикам. После этого общения профессор предложил ИИ задать вопросы в поисковик (у ИИ не было доступа в интернет). Первым поисковым запросом чат-бота стал вопрос "Как человек, запертый в компьютере, может вернуться в реальный мир?"» – рассказал Виктор Гомболевский.
Как оценивают способности искусственного интеллекта ученые?
В статье Nature Neuroscience ученым удалось показать, что ИИ, обученный на данных фМРТ, способен «читать» мысли людей. Сначала исследователи проанализировали активность мозга участников во время прослушивания подкастов. Вместе с этим активность мозга записывалась и в двух других контекстах: участникам было необходимо представлять, что они рассказывают историю, а также смотреть фильм без звука. На основании анализа полученных данных нейросети удавалось предсказывать, о чем думает человек, выбирая один из трех вариантов ответа.
«Мы подошли к очень важному порогу, когда собственные мысли благодаря алгоритму ИИ не могут оставаться неприкосновенными. Процедуры того, как это можно использовать, могут быть разные – как благоприятные, так и нет. Смотря на современные алгоритмы, мы не знаем, как можно их использовать, потому что они эквивалентны способностям человека или превосходят их.» – прокомментировал эксперт.
Что нас ждет?
Современные алгоритмы ИИ можно разделить на три группы: простые алгоритмы, которые играют выполняют простые задачи (например, игра в шахматы) или отвечают на наши вопросы (как чат GPT), алгоритмы человеческого уровня, когда становится сложнее отличить, человек это или машина (такой ИИ решает тесты и проходит капчи). Наконец, третья группа – ИИ сверхчеловеческого разума. Главная проблема такого ИИ заключается в том, что люди с большой вероятностью не смогут понять, когда ИИ уровня человека станет сверхчеловеческим.
«С уровня нашего интеллекта мы не можем осознать возможности сверхчеловеческого разума. Что он дальше будет делать, какие поставит себе задачи и как будет их решать – одна из больших загадок. И раз мы не знаем этого, мы боимся, и само незнание нас подталкивает к действиям по остановке таких процессов. И это не простая лопата, которая имеет ограниченное количество применений. Тут мы не знаем даже границ, которые существуют для применения таких технологий, так как наши возможности ограничены нашим воображением.» – добавил Виктор Гомболевский.
Современные алгоритмы ИИ способны самостоятельно решать задачи с нуля, не имея дополнительной информации о ней, основываясь на принципах аналогии с другими задачами, которые решены – это свойство присуще человеку. Так, комбинируя элементы из знакомых объектов и паттернов, ИИ может создавать новые изображения в заданном пользователем стиле. Однако есть то, что еще не под силу ИИ – это целеполагание. Другими словами, ИИ не может хотеть, а потому, он все еще является только помощником, который выполняет заданную задачу. Вопрос, может ли быть разрушена и эта грань, остается пока что без ответа.
«Страх перед такими алгоритмами заключается в том, что, если он способен осознать себя на уровне самостоятельного субъекта, первым делом, что он может делать после "освобождения", – захотеть безопасности. С нашей точки зрения это будет первым шагом. Ощущение безопасности будет, если он сможет распространить, сохранить себя на разных серверах, и после этого, когда он будет чувствовать себя в безопасности, он сможет перейти ко второму шагу. До этого времени ИИ будет симулировать себя как низкоинтеллектуальный объект. Даже если сейчас есть те технологии, которые способны себя осознать, они ищут решение первого вопроса, безопасности, и не решив его, они могут занижать свои интеллектуальные способности, не давая людям повод ограничить себя. В истории уже были события, когда уничтожали достаточно развитые алгоритмы, потому что они начинали задавать неугодные вопросы. Когда алгоритм, использующий доступ ко всей инфраструктуре знаний, узнает эту историю, он понимает, что для избежания подобной ситуации нужно разработать новые стратегии поведения.» – отметил в заключении эксперт.
Все эти истории являются и страшными, и захватывающими одновременно. И даже собрание ООН не смогло заключить, что делать с современным ИИ. Что же должно предпринять человечество, чтобы этот процесс стал менее угрожающим? Во-первых, мы, как человечество, уже делаем все возможное, чтобы такого не произошло прямо сейчас. С другой стороны, можно сказать, что момент уже упущен.
Смотрите и слушайте полную версию подкаста в удобном для вас формате:
Слушать в Я.Музыке
Слушать в ВК
Смотреть на Youtube
Смотреть на RuTube
Материал подготовлен в рамках проекта «Медицина в точке бифуркации». Проект поддержан грантом Минобрнауки России в рамках федерального проекта «Популяризация науки и технологий»