HOMO SAPIENS или HOMO GPT? Вчера я написал текст о том, что есть человек разумный, который делает выводы, основываясь на мыслях. На фактах, на логике, на анализе. А есть и другие люди, которые свои мнения формируют по алгоритму, сходному с алгоритмом Chat GPT. Интересно, многие под моим текстом написали, что они и сами пришли к аналогичным выводам. Думаю, что скоро эта классификация станет общим местом, все будут так считать.
Но немало людей встретили мой тезис в штыки. И я пишу это, чтобы, во-первых, объяснить свою мысль получше именно для этих не понимающих. Так сказать, в педагогических целях. Мне интересно поставить эксперимент, воспримут ли мое новое объяснение возражавшие вчера, или же есть причины, по которым это будет невозможно. А во-вторых, к сказанному вчера я кое-что добавлю.
Первое, о чем нужно упомянуть, это о понятии модели. Есть математические модели, ученые моделируют атмосферу, экономику, работу ядерных реакторов. Лучше всего моделирование в двух словах объяснил Эйнштейн.
- Я вижу циферблат часов и движение стрелок, - сказал Эйнштейн. – И я придумываю часовой механизм. Я понятия не имею, какой на самом деле механизм часов в реальности. Я придумываю другой, свой, но такой, который двигает стрелки точно так же.
- Спустя какое-то время, - добавил Эйнштейн, - я вижу, что в реальности стрелки двигаются иначе, чем у моего механизма. И я свой механизм модифицирую. Чтобы этой разницы не было.Эйнштейн говорил о работе физика-теоретика, и он говорил именно о том, что он строит модель, а не описывает реальность. Которую мы никогда не узнаем.
Теперь, Эйнштейн говорил о физике, то есть о математической модели. Когда реальность моделируется с помощью математических формул. Но вокруг полно и не математических моделей. Скажем, медицина. Давайте представим себе беседу ведущего врача клиники Маунт Синай в Нью-Йорке и врача в клинике традиционной китайской медицины в Пекине. Могут ли они понять друг друга, могут ли договорится? Не очень. У них разные модели человеческого тела и болезней. У врача из Маунт Синай играют роль анализы, биохимия, всякие энзимы и гормоны. Кривые кардиограмм. Снимки МРТ. А для врача из Пекина этого всего нет. По его модели, тело человека состоит из четырех стихий, земли, огня, воды, и воздуха. И лечит он человека, скажем, чтобы погасить немножко в нем огонь.
Что забавно, несмотря на разные модели, и современная и традиционная медицина порой дают более или менее одинаковые рекомендации. Китаец порекомендует какое-нибудь снадобье, чтобы погасить огонь, а современный врач понимает, что это снадобье на самом деле снижает высокий уровень триглицеридов, что полезно.
Но очень часто американский и китайский врачи дают противоположные рекомендации. Конечно же, ведь у них абсолютно разные модели, и они делают порой абсолютно разные рекомендации и выводы.
Запомним эту мысль. Мы от нее в дальнейшем будем отталкиваться. Итак, когда у людей разные модели и алгоритмы, они часто приходят к разным мнениям и выводам. Это очевидно и сомнению не подлежит.
Теперь, я только что упомянул мнения и выводы. Мнения и выводы – это тексты. И человек разумный и ChatGPT пишут тексты, пользуясь совершенно разными алгоритмами. У них совершенно разные модели текста. У человека разумного слова имеют лексическое значение. Смысл. И слова увязываются в предложения по смыслу. Предложения увязываются в тексты по смыслу. Эту модель мы будем в дальнейшем называть смысловой.
Chat GPT исходит из совершенно иной модели текста, в этой модели смысл не играет значительной роли. Если упрощенно, то ChatGPT анализирует огромное количество текстов на заданную тему, и изучает статистические закономерности порядка слов. И он выдает наиболее вероятное слово. Это, конечно, огромное упрощение, но суть примерно такова. Эту модель мы будем в дальнейшем называть лингвистической.
Сейчас, в самом начале искусственного интеллекта, машинного обучения, нейросетей, нас поразило высокое качество текстов, выдаваемых ChatGPT. Смысла там изначально не планировалось, но, оказывается, и лингвистическая модель вполне способна выдать текст, в котором мы видим смысл. И это нам сегодня кажется неожиданным, мы к этому еще не успели привыкнуть.
Теперь, это было введение, так сказать, бэкграунд. Теперь перейдем к тому, что я написал вчера.
Традиционная школьная модель образования была смысловой. Школьникам давался учебник, который они изучали. Разбирались в смысле. И, изучив ту или иную область знания, они делали осмысленные выводы. Потом появились педагогическая теории о том, что сегодня люди сталкиваются с огромным потоком информации и всего не выучишь. А не лучше ли научить школьников, не изучая предмета, не понимая смысла, тем не менее написать эссе на заданную тему? Школьники пороются в интернете, прочтут парочку сайтов, и скомпилируют свое эссе на основе прочитанного. Но ведь именно так и работает ChatGPT. То есть, современная школа воспитывает новый вид человека, который можно назвать Homo GPT.
Итак, подытожим. Homo Sapiens и Homo GPT пользуются разными алгоритмами для написания текста. Смысловым и лингвистическим.
Следующий тезис. Наше общество состоит одновременно из этих двух различных видов особей. Мы это не всегда понимаем. Во-первых, физиология и у тех и у других идентичная. Во-вторых, как мы уже отмечали выше, тексты, производимые с помощью лингвистического подхода, на первый взгляд вполне могут выглядеть осмысленно. Но у этих двух видов людей несмотря на то, что хардвер у них один, но у них разные прошивки, разные операционные системы.
Теперь, традиционно Homo Sapiens, смысловики, доминировали. А сегодня начинают доминировать Homo GPT, так сказать, лингвисты. Почему? Из-за интернета. Тридцать лет назад, если вы ничего не знали о древней китайской поэзии, то вы не могли участвовать в разговоре на эту тему. Поэтому все дискуссии вели между собой в основном Homo Sapiens. Смысловики. А сегодня вы можете за пять минут почитать википедию и вступить в спор с профессором-китаистом Оксфордского университета. Не фиг херню молоть! То есть, сегодня у Homo GPT появились ресурсы. Появилось некое собрание текстов в интернете, которые всегда под рукой. И в наши дни на основе лингвистического анализа этих текстов Homo GPT могут написать свой текст. Поэтому мы стали замечать вокруг нас огромное число Homo GPT.
Теперь. Следующее наблюдение. Два года назад какой-то ультралевый журналист поставил эксперимент. Под псевдонимом он открыл новый аккаунт в твиттере и подписался на ультраправых деятелей и блоггеров. И он описал свои впечатления.
- Моя лента полностью изменилась, - писал он. – Я как будто попал в иной мир. Другие новости, другие мнения. Он назвал это лжетеориями. Для него пребывание в новой информационной среде было шоком.Но что этот эксперимент означал? Что люди в нашем обществе уже не находятся в едином информационном пространстве. Это было не так пятьдесят лет назад. Пятьдесят лет назад новости по телевизору передавали по полчаса в день. И их мало кто смотрел. А по воскресеньям вся Америка смотрела одну и ту же программу Уолтера Кронкайта. Иными словами, у всех вокруг были, по сути, одни и те же тексты.
Сегодня ситуация иная. Есть программы, CNN, Fox News, MSNBC, по которым новости передают круглосуточно. Появилось понятие breaking news. Если пятьдесят лет назад что-то случалось раз в месяц, то сегодня телефон дзинькает каждые полчаса. Breaking news! Поток информации увеличился в сотни раз, и за всем не уследишь. Поэтому у каждого Home GPT есть лента новостей, некое подмножество потока. То есть, один Homo GPT окружен одними текстами, скажем, от CNN. А другой Home GPT – другими текстами, от Fox News. И даже несмотря на то, что прошивка у них одинаковая, оба составляют свои мнения одинаково, лингвистически, но база текстов у них разная. То есть, у них разные статистики. И поэтому они выдают разные свои тексты.
Из этого вытекает один печальный, на мой взгляд, вывод. В споре уже давно не рождается истина. Она может родиться, только если спорят два Homo Sapiens. Но если хотя бы один из участников спора является Homo GPT, то его мнение, его тексты, изменить невозможно. Они составляются лингвистически, без анализа смысла, на основе сотни-другой текстов, которые он прочитал ранее. И если вы начнете возражать, спорить, то максимум того, на что вы способны, это подать ему на вход еще один свой текст. Который не изменит его статистики, по которой этот человек выдает свой текст. Ну, добавили вы к сотне его текстов еще один. И что? Это капля в море.
Посмотрите споры о глобальном потеплении. Да там же одни Homo GPT с обеих сторон. Они пишут эмоциональные простынки, обвиняют друг друга, и не слышат аргументов друг друга. Посмотрите на сентенции вокистов. Просто выдается свой текст (а у них своя база документов) в ответ на все что угодно.
В этой связи изменилось отношение к свободе слова. Забанить Трампа в твиттере! Уволить Такера Карлсона! Я не могу смотреть CNN. Уволить Дана Лемона! Это все не требования Homo Sapiens. Homo Sapiens вполне может ужиться в мире, где вещают и Такер и Лемон. Он будет их слушать и не соглашаться с ними. Со смыслом ими сказанного. Но Homo GPT хочет изменить базу текстов для всех. Уволить!
Интересна история с запретом Дождя в Латвии. Дождь – это тексты. И эти тексты далеки от текстов латвийского ТВ. Поэтому латвийские Homo GPT запретили Дождь. Что является идиотизмом в российском контексте. Убрать вещание оппозиционного канала на русскую аудиторию в Европе, состоящую тоже из Homo GPT.
Наконец, последняя гипотеза из моего вчерашнего поста. У юного Сэлинджера была мечта – опубликоваться в Нью-Йоркере. Он посылал туда рассказ за рассказом и его отвергали. - Это плохо, - писали ему из редакции. Но кого они публиковали? Публиковали какую-то давно забытую ерунду. Что они, редактора, были идиотами? Возможно да, но дело не только в этом.
Между прочим, рассказы юного Довлатова тоже отвергали один за другим. И с Довлатовым это интереснее, чем с Сэлинджером. Если Сэлинджера отвергали редакторы только Нью-Йоркера, то Довлатова не принимали в десятке журналов. Так сказать, ничего личного. Не то!
Теперь, а кого они публиковали, если не Довлатова? Ясно же, что уровень качества публикуемого был низок. Много фигни публиковали.
Мнение редакторов – ладно. А что можно сказать о мнении широкой публики? Читателей типа Homo GPT? У этих людей формируется база текстов, которые, как им объясняют, являются хорошими. Вначале в школе объясняют, что Пушкин – это наше все. И все повторяют эту фразу. Потом, в старших классах или чуть позже, они слышат от Леночки, что Маринина и Донцова классно пишут. Также, они знают от Васи, что Пелевин улетный. То есть, формируется некое облако хороших писателей. И если появляется кто-то новый, который попадает в это облако лингвистически, если он узнаваем, то он становится популярным. Эту мою фразу можно неверно интерпретировать, поэтому я ее поясню. Что означает узнаваем лингвистически? Язык – это не просто словарь. Текст на этом языке – это не просто набор слов. Есть сюжетные ходы, есть штампы. Есть стиль. Это, так сказать, язык второго уровня. В кино это называют киноязыком.
Теперь, и Сэлинджер и Довлатов в своих первых рассказах своим языком второго уровня не попадали в облако. Поэтому, то что они писали, казалось графоманством. Что такое графоманство, по мнению широкой публики? Это что-то, далекое от облака узнаваемого. Я как-то посоветовал одному девственному, в смысле книг, человеку почитать Процесс Кафки. Имени Кафки он никогда не слышал.
- Чушь! – сказал мне он через полчаса. – Дочитал до половины и дальше не буду. Откуда этот Кафка? Из Латинской Америки? Это памфлет против какого-нибудь Пиночета? Политика меня не интересует!
- Графоман твой Кафка! – сказал он. – Писать не умеет!
То есть, в его базе книг были какие-то политические памфлеты, и он, как явный Homo GPT, ошибочно отнес Кафку к этому облаку.Довлатов и Сэлинджер казались графоманами. Появляется какой-то персонаж, который сразу начинает говорить каким-то языком аутсайдера. Языком подростка. О каких-то мелких проблемах, которые яйца выеденного не стоят. Это все было очень далеко от облака литературы 40-х, 50-х и 60-х. А для сегодняшнего писателя облако изменилось. Скажи ему, что Сэлинджер и Довлатов ни на кого не похожи, пишут по-другому, удивятся. Современные читатели типа Home GPT не изменились с тех пор. Их алгоритмы не изменились. Что изменилось – это набор их текстов, про которые им сказали, что они хорошие.
Когда писатель попадает в облако, то людям из категории Homo GPT легко читать. Их лингвистический алгоритм удовлетворен. А если он далек от их базы текстов, то им непонятно. Человек пишет и все время отклоняется от их лингвистических алгоритмов. Графоман! Не умеет!
Читателя Homo GPT можно легко определить, поговорив с ним о прочитанном. Там никогда нет смысла. Нет анализа, нет мыслей. Вместо этого там следующее.
- Язык! - говорит Homo GPT. - Читаю и наслаждаюсь языком!
Это довольно забавно, но он сразу говорит о том, что его модель лингвистическая.Там есть еще какие-то стандартные фразы.
- Я читаю Франзена, - говорит Homo GPT, - и как будто погружаюсь в теплую ванну.
То есть, вместо мыслей идут ощущения. Мол, вкусно написано.И еще, Homo GPT очень часто характеризует книгу прилагательными. Это очень мощная книга. Очень тонкая. Филигранная.
Впрочем, это же не так, что есть только черное и белое. Читатель может быть на 10% Homo Sapiens, и на 90% Home GPT.
- Эта книга заставляет нас думать! - говорит такой полукровка.
Подождите, но разве мы не думаем, читая любую книгу? Разве мы не думаем постоянно? Оказывается, нет. Оказывается, мы обычно не думаем, но отдельные книги нас прямо-таки заставляют это делать.Говорят, что есть программы, которые могут определить, написан ли текст человеком или ChatGPT. Интересно прогнать через эти программы современные книги. Можно ли определить, написан ли текст Homo Sapiens или Homo GPT? Мне кажется, я вижу. Читаю текст, и думаю, там ничего для меня интересного нет. Пусто. И с удивлением вижу, что это дико популярно. Судя по всему, читательская аудитория в значительной степени состоит тоже из Homo GPT.
Между прочим, современная русская литература плохо продается на Западе. Да, Акунина или Пелевина знают некоторые. Но это факт - не идет. А вот, скажем, переводы каких-нибудь индусов, скажем, Аравинда Авиги, на слуху. Потому что облака разные. Это интересно, но русское облако стоит особняком. Провинциальное. Денис Драгунский писал об этом несколько лет назад.
- Почему русская литература плохо продается? - спрашивал Драгунский. И отвечал, - потому что плохо пишем!Но разве плохие книги обязательно плохо продаются? Если они попадают в облако, то продаются хорошо. Тут, думаю, вся суть в том, что облако русских текстов стоит в стороне. Об этом интересно написать, но уже когда-нибудь потом.
-- Вадим Ольшевский
Comments (5)
Такой длинный текст невозможно написать (и прочитать) без использования искусственного интеллекта
заставил задуматься... 🙂
Конечно же это не разные люди, а разные уровни в одном человеке. Люди действительно неплохо справляются в качестве GPT, когда надо, генерируя малоосмысленные, но лингвистически правдоподобные тексты. И умение нести бред скорее коррелирует, чем антикоррелирует с умением рассуждать.
Да, очень интересные мысли.
Круто! Спасибо!