Широко известный в узких кругах "профессор Лопатников" неожиданно написал годную статью про нейросети. А точнее - про самую известную нейросеть ChatGPT, которую уже более месяца не перестают воспевать в самых различных местах: и разговор-де осмысленный она ведет, и курсовики-дипломы с ее помощью пишут, и вообще... "...Люди тяжело переживают разрыв с нейронкой. Речь идёт о чат-боте по имени Replika - ИИ-помощнице, охотно участвующей в секстинге и ролевых играх. Под давлением властей функцию «флирта» пришлось отключить. Для многих людей это стало ударом...". Последнее, впрочем, не о Chat GPT, но сути это не меняет.
Потому, что в целом настрой одинаков: очень скоро "роботы заменят людей" всюду и везде. Ну, и по мелочи: пишут, например, о том, что нейросети уничтожат пресловутые "поисковые машины" - вроде Гугла. Потому, что они будут выдавать уже не "страницы" с нужной информацией, а саму информацию в "чистом виде". Нетрудно заметить, что даже последнее - событие "эпохального масштаба", по крайней мере, для тех, у кого вся "эпохи" не выходят за пределы гаджетов. Но так ли это?
Лопатников пишет, что "не так". И приводит пример с поэтому Вознесенским, которого эта самая Chat GPT "исключила в 1978 году из Союза Писателей". Разумеется, не в реальности - в реальности Вознесенский был, наверное, вместе с Евтушенко самым обласканным властями представителем т.н. "творческой интеллигенции". (Хотя таким "суперподхалимом", как последний, к счастью, не был.) И его никто ниоткуда не исключал - наоборот, вплоть до конца жизни осыпали разнообразными премиями и наградами. Но Лопатников задал нейросети именно этот вопрос - и "сеть", недолго думая, сформулировала нужный ответ.
"Нужный" - в смысле того, что именно подобный ответ должен ожидать пользователь со стороны нейросети. По крайней мере, именно так решили ее авторы, которые и "запрограммировали" данную систему на подобную реакцию. (Не знаю, как это конкретно было реализовано: работает ли там обычный алгоритм или это проявилось в ходе "обучения" - но смысл именно таков.) Почему? Да элементарно: потому, что основной смысл существования Chat GPT - как нетрудно догадаться из беседы - это "поддержание разговора". Именно эта "способность" и порождает коммерческий успех проекта - если бы его не было, то Chat GPT стал бы не более, чем "университетским курьезом". (Вместе с огромным количеством "нейромашин" и просто симуляторов диалога.)
Ну, а если так, то пользователь должен услышать то, что ему нравиться, и ничего более. Какая там "истина", кому она нужна: сюда приходят "поболтать". И поэтому "Вознесенский" был "исключен": если запрашивающий этого хочет, то почему бы и нет? Сам Лопатников очень удачно назвал это качество "искусственным интеллигентом": ну, в самом деле, это крайне похоже на поведение известного "социального слоя" т.н. "думающих людей". Точнее, тех, кого другие "думающие" считают "думающим". (Еще раз: "интеллигент - это тот, кого другие интеллигенты считают интеллигентом". Рекурсия? Ну да, как обычно и происходит в сложных системах.)
Именно так действуют разнообразные "эксперты" и прочие "умники", которые пишут и говорят именно то, что от них хотят услышать. ("Россия рухнет в ближайший год", "Украина победит", "Западная экономическая система стабильна", "гендерное равноправие - это норма", "человек должен выбирать свой пол", "рыночная экономика устанавливает справедливые цены", "административное управление экономикой невозможно" - ну и т.д., и т.п.) Понятно, почему так происходит: что если кто-то скажет обратное, то станет "анфан терриблем", изгоем системы - с отлучением от денежных потоков. И нейросеть тут не исключение: ну да, разумеется, самому "роботу" надо, в общем-то, немного - только электричество для серверов - но вот к его владельцам это не относится.
Поэтому все восторги относительно того, что "нейросеть скоро заменит человека" выглядят более, чем смешно. Ну да, ну да, "роботы не люди, они не имеют интересов". Как говориться, мало им уже помянутых "поисковых машин", который - как изначально так же считалось - "абсолютно объективны" и служат только истины. Ведь не может же быть того, что их владельцы решат зачем-то "подкорректировать" результаты поиска: например, для того, чтобы первыми в поисковой выборке были те сайты, владельцы которых платят наибольшие деньги? Ведь это невозможно с "беспристрастной машиной", да? Про пресловутые же "коррекции" политического типа и вообще говорить смешно: разве можно представить, что айтишники и менеджеры, обеспечивающие функционирование "поисковиков", решат вдруг изменить действие последних так, чтобы они чего-то искали, а чего-то вообще не упоминали? Ведь это невозможно, это противоречит "кодексу честного человека"...
Если кто не помнит, то именно так принято было говорить лет двадцать назад.( Read more... )
Потому, что в целом настрой одинаков: очень скоро "роботы заменят людей" всюду и везде. Ну, и по мелочи: пишут, например, о том, что нейросети уничтожат пресловутые "поисковые машины" - вроде Гугла. Потому, что они будут выдавать уже не "страницы" с нужной информацией, а саму информацию в "чистом виде". Нетрудно заметить, что даже последнее - событие "эпохального масштаба", по крайней мере, для тех, у кого вся "эпохи" не выходят за пределы гаджетов. Но так ли это?
Лопатников пишет, что "не так". И приводит пример с поэтому Вознесенским, которого эта самая Chat GPT "исключила в 1978 году из Союза Писателей". Разумеется, не в реальности - в реальности Вознесенский был, наверное, вместе с Евтушенко самым обласканным властями представителем т.н. "творческой интеллигенции". (Хотя таким "суперподхалимом", как последний, к счастью, не был.) И его никто ниоткуда не исключал - наоборот, вплоть до конца жизни осыпали разнообразными премиями и наградами. Но Лопатников задал нейросети именно этот вопрос - и "сеть", недолго думая, сформулировала нужный ответ.
"Нужный" - в смысле того, что именно подобный ответ должен ожидать пользователь со стороны нейросети. По крайней мере, именно так решили ее авторы, которые и "запрограммировали" данную систему на подобную реакцию. (Не знаю, как это конкретно было реализовано: работает ли там обычный алгоритм или это проявилось в ходе "обучения" - но смысл именно таков.) Почему? Да элементарно: потому, что основной смысл существования Chat GPT - как нетрудно догадаться из беседы - это "поддержание разговора". Именно эта "способность" и порождает коммерческий успех проекта - если бы его не было, то Chat GPT стал бы не более, чем "университетским курьезом". (Вместе с огромным количеством "нейромашин" и просто симуляторов диалога.)
Ну, а если так, то пользователь должен услышать то, что ему нравиться, и ничего более. Какая там "истина", кому она нужна: сюда приходят "поболтать". И поэтому "Вознесенский" был "исключен": если запрашивающий этого хочет, то почему бы и нет? Сам Лопатников очень удачно назвал это качество "искусственным интеллигентом": ну, в самом деле, это крайне похоже на поведение известного "социального слоя" т.н. "думающих людей". Точнее, тех, кого другие "думающие" считают "думающим". (Еще раз: "интеллигент - это тот, кого другие интеллигенты считают интеллигентом". Рекурсия? Ну да, как обычно и происходит в сложных системах.)
Именно так действуют разнообразные "эксперты" и прочие "умники", которые пишут и говорят именно то, что от них хотят услышать. ("Россия рухнет в ближайший год", "Украина победит", "Западная экономическая система стабильна", "гендерное равноправие - это норма", "человек должен выбирать свой пол", "рыночная экономика устанавливает справедливые цены", "административное управление экономикой невозможно" - ну и т.д., и т.п.) Понятно, почему так происходит: что если кто-то скажет обратное, то станет "анфан терриблем", изгоем системы - с отлучением от денежных потоков. И нейросеть тут не исключение: ну да, разумеется, самому "роботу" надо, в общем-то, немного - только электричество для серверов - но вот к его владельцам это не относится.
Поэтому все восторги относительно того, что "нейросеть скоро заменит человека" выглядят более, чем смешно. Ну да, ну да, "роботы не люди, они не имеют интересов". Как говориться, мало им уже помянутых "поисковых машин", который - как изначально так же считалось - "абсолютно объективны" и служат только истины. Ведь не может же быть того, что их владельцы решат зачем-то "подкорректировать" результаты поиска: например, для того, чтобы первыми в поисковой выборке были те сайты, владельцы которых платят наибольшие деньги? Ведь это невозможно с "беспристрастной машиной", да? Про пресловутые же "коррекции" политического типа и вообще говорить смешно: разве можно представить, что айтишники и менеджеры, обеспечивающие функционирование "поисковиков", решат вдруг изменить действие последних так, чтобы они чего-то искали, а чего-то вообще не упоминали? Ведь это невозможно, это противоречит "кодексу честного человека"...
Если кто не помнит, то именно так принято было говорить лет двадцать назад.( Read more... )