ChatGPT: угроза или гениальный попугай?

Разбираем на молекулы новую технологию, чтобы понять: помощник или инструмент манипуляции сознанием она для нас

ChatGPT препарируют: нейросети, алгоритмы, «ответы», но где же живой человек, способный задавать вопросы?
ChatGPT препарируют: нейросети, алгоритмы, «ответы», но где же живой человек, способный задавать вопросы?

Итак, ChatGPT. Чудо-юдо, беседующее с вами, словно выпускник философского факультета после пары крепких коктейлей. Все вокруг твердят: «Это будущее! Это магия! Теперь за нас будут писать сочинения, код и даже стихи о любви!» Будущее, конечно. Такое же светлое, как ядерная зима после запуска Starlink.

Давайте говорить начистоту. Я не луддит, чтобы отрицать прогресс. Но видел достаточно «прорывов», чтобы понимать: каждое чудо техники — это инструмент. Вопрос лишь в том, кто им воспользуется. А эти «кто», как правило, оказываются теми еще засранцами.

Нам старательно объясняют, что ChatGPT — это не магия, а наука. И это правда. Технически. Но в этом-то и вся соль! Любая достаточно развитая технология неотличима от магии, как говорил Кларк. И это серьезная проблема. Когда воспринимаешь нечто как чудо, перестаешь задавать вопросы. А вопросы задавать необходимо. Особенно, когда дело касается системы, генерирующей тексты, неотличимые от написанных человеком.

Нам говорят, что ChatGPT — это, по сути, умный чат-бот. Допустим, умный. Как крыса, нажимающая на кнопку за кусочек сыра. Она тоже «умна» по-своему. Но она не понимает, что такое сыр, зачем он нужен и что будет, если ее лишить этой мотивации. То же и ChatGPT. Он перерабатывает тонны текстов, вычленяет закономерности, но смысла в этом нет. Это продвинутая игра в ассоциации.

Эта штука учится в два этапа. Сначала поглощает всё подряд — книги, сайты, комментарии под новостями. Затем ее «тонко настраивают». Люди — да-да, те самые, кто пишет инструкции к микроволновкам,— дают обратную связь, подсказывают, где она ошибается, как отвечать правильно. Шпаргалка, одним словом. Но что, если в этой шпаргалке заранее заложены неверные ответы? Кто определяет, что «правильно»? И главное — зачем?

Нас успокаивают, мол, у ChatGPT есть «окно контекста». То есть он помнит ограниченное количество информации, чтобы не перегружаться. Это как сказать: у слона маленький мозг, поэтому он не может думать о мировых проблемах. Может, он о них и не думает, но это не значит, что он не снесет вашу лачугу одним взмахом хобота. Так и с ChatGPT. Эти ограничения пока что скорее для разработчиков, чем для пользователей. Но представьте эту систему через пять или десять лет. Когда «окно контекста» станет размером с океан. Что тогда?

И вот мы подходим к главному. Как ChatGPT узнает, что сказать? Ответ до зубовного скрежета прост: он угадывает. Он заполняет пробелы, как если бы вы играли в «Поле чудес» с огромным словарем. Добавляет немного случайности, чтобы ответ не казался предсказуемым. И вуаля! Вы получили текст, который выглядит как написанный человеком. Но это не живой человек! Это имитация. Подделка. Симулякр, как сказал бы Бодрийяр.

А теперь представьте, что эту технологию поставят на поток. Вместо журналистов — ChatGPT. Вместо писателей — ChatGPT. Вместо преподавателей — ChatGPT. Что останется от нашего «общего культурного кода», если вся информация будет генерироваться машиной, лишенной эмпатии, опыта, души, если угодно?

Нам говорят, что ChatGPT иногда ошибается. Но это издержки обучения. Как радиация после взрыва на АЭС. Проблема не в том, что ChatGPT ошибается, а в том, что он ошибается убедительно. Он выдает ложь с такой уверенностью, что начинаешь сомневаться в собственной адекватности. А когда это поставят на службу политике или экономике?

И еще один важный момент — предвзятость. Нам объясняют, что ChatGPT учится на человеческих текстах и может перенимать человеческие предубеждения. Разработчики, конечно, с этим борются. Как борются с коррупцией. То есть, никак. Предубеждения — это не просто «ошибки» в алгоритме. Это отражение нашей реальности. Это шаблоны мышления, определяющие, как мы воспринимаем мир. И если ChatGPT будет «зеркалить» эти шаблоны, он не станет лучше. Он станет убедительной версией нас самих, со всеми нашими тараканами и скелетами.

И тут мы подходим к самому страшному — вопросу об этике. Нам говорят, что в ChatGPT встроены механизмы безопасности, предотвращающие генерацию вредного контента. Но кто определяет, что такое «вредный контент»? Те, кто контролируют доступ к интернету? Те, кто решают, что нам можно читать и смотреть? Спасибо, не надо. Я сам разберусь, что для меня вредно, а что полезно.

В заключение — немного оптимизма. Нам обещают, что будущее ИИ выглядит захватывающе. Что модели вроде ChatGPT станут умнее и полезнее. Что они будут помогать нам решать задачи и станут более прозрачными. Посмотрим. Пока что я вижу в ChatGPT не гениального помощника, а ящик Пандоры, из которого вырвался гениальный попугай. И мне это не нравится. Потому что попугай умеет повторять чужие слова, но не умеет думать своей головой. А думать, друзья, придется нам. Иначе этот попугай однажды захватит мир. И тогда нам будет совсем не до смеха.

Vahue.ru

, , ,