Когда каждый лид на счету, или как Лена Понты_По_Колено пиарилась на ИИшечке

Страницы:  1

Ответить
 

Professor Seleznov


Это - ответ на статью"Ваш текст воняет GPT. 12 мест, откуда несёт и почему".
Когда я впервые прочитал эту статью, я подумал, что это перевод, и снова заскроллил вверх. Там не было тэга "перевод", зато был тэг "Технотекст 8". Тогда, учитывая общее косноязычие статьи, я подмумал, что этим тэгом помечаются сгенеренные ИИ тексты. Это было совершенно очевидно, но ради успокоения совести я нажал на тэг.
Вы можете представить мое удивление, когда сами нажмете на этот тег. "Технотекст 8" - это, как оказалось, "ежегодный конкурс технических статей", и в правилах конкурса четко написано, что оставь надежду, ИИ сюда входящий "Статья написана человеком, при создании статьи не использовался искусственный интеллект". Как же так, явне сгенеренная статья номинирована на конкурс? Что это, fraud или scum? Давайте разбираться вместе.
Прежде всего надо понимать всю иронию происходящего. Текст, который сгенерирован ИИ, подается на конкурс, куда не допускаются тексты, сгенеренные ИИ. И при этом этот текст рассказывает нам, как распознать тексты, сгенеренные ИИ. Что же это, автор сам себе сгенерировал вырыл могилу? Это - интересный вопрос, но мы его рассмотрим чуть позже, а пока я расскажу, что смутило лично меня.
Первое, за что зацепился мой непрофессиональный взгляд, это фраза в самом начале:
MIT (Kishnani, 2025) сформулировал точно: «говорит на тебя, а не с тобой».
pic
Че ????
Ни один человек, для которого русский язык является родным, не смог бы выдать подобный пассаж, даже в состоянии сильной аффектации. Когда я потом стал разбираться в этом бреде и нашел оригинал, то он звучал так: "Research from MIT (Kishnani, 2025) coined the term "retail voice" — text that speaks at you rather than with you". Т.е. речь шла про голос, который говорит при тебе, в твоем присутствии, но при этом говорит не с тобой. Так - понятно, а в переводе Лены "Понты По Колено" - нет. Любой человек, который знает и понимает русский язык, зацепится взглядом за выражение "говорит на тебя". Так не говорят на русском. Но "авторка-редакторка" не зацепилась. Почему? Либо она перед публикацией не читала текст, который сгенерила ее нейросеть, либо она ни разу не редакторка. Отметьте свой вариант, как говорится
Второй звоночек был еще громче:
ChatGPT – самый полированный первый черновик.
pic
what ???
"Самый полированный первый" - это достойно мема, нет? Вот тут уже мне сразу стало ясно, что русский язык для Лены "Понты_По_Колено" не является родным. Либо она не принимала участия в этом тексте, а просто, как Мария у гностика Валентина, была сосудом, через который Иисус этот текст прошел, не изменившись ни на йоту. Стравила, так сказать, отрыжку чужеродного разума на неокрепшие (как показыает рейтинг) умы пользователей Хабра.
При этом в тексте Лены есть просветеления, когда как бы морок спадает, и вот-вот покажется Китеж-Град:
Мультиязычные LLM имплицитно пивотят через английские представления при генерации на других языках (Arxiv 2504.09378, 2025). Модель думает по-английски, даже когда пишет по-русски. Отсюда синтаксические кальки, которых в естественном русском просто нет.
Да что ты говоришь, родная? В самом деле? Тогда почему ты этого не замечаешь, когда твоя же модель, которая генерит за тебя текст, использует все маркеры, какие только можно, чтобы замаркировать этот текст как написанный моделью, но ты этого не замечаешь. Ах, что же это? Святая простота ? Которая хуже дурака ? Где ты, Лена, мы тебя теряем...
Я не стал рыть дальше. Там, я уверен, полно ошибок.
Но тут надо подсветить один момент. Я думал, что это переод какого-то текста. И я не ошибся. Это и в самом деле перевод каких-тотекстов.
Исследование Kobak et al. (Nature Human Behaviour, 2024–2025) – красивая работа, проанализировали 14.2 млн абстрактов PubMed с 2010 по 2024 год. Методология: сравнить наблюдаемую частоту слов в 2024 с прогнозом на основе тренда 2021–2022. По аналогии с epidemiological excess mortality – только для слов.
Слово «delves» показало коэффициент r = 25.2. Рост с 349 употреблений в 2020 до 2847 в 2023. Плюс 654 процентов. «Showcasing» – r = 9.2. «Underscores» – 9.1.
Причем хорошо видно, как работает модель. Она чекает по ссылкам ключевые слова, и потом, найдя текст по ссылкам, лезет внутрь источника, выуживает оттуда какие-то данные, добавляет их в статью. Это чистый рерайт без участия пользователя - т.е. чистейшее зло в моем понимании. нейрослоп как он есть.
Правда, она облажалась, как всегда. Модели всегда лажают, если их не проверять. Как сотрудники =) Например, возвращаясь назад, к понятию "retail voice". Лена "Понты_По_Колено" цитирует якобы исследование, но на самом деле это не исследование - это фантом, который однажды, возможно, и был в исследовании. Потом его подхватила одна модель и написала статью, которую я цитировал выше, а после нее другая модель схавала эту наживку как само сабой разумеещеся. Почему фантом? Потому что в последнем изданном варианте статьи нет ни слова про retail voice. Просто одна модель фраернулась, а другая - подхватила.
И это просто один момент. ОДИН ВСЕГО МОМЕНТ напрочь фейковой статьи, под которой пользователи Хабра понаставили плюсов. Просто потому что в конце были приведены какие-то ссылки на какие-то научные работы.
- Ах, не говорите, их так легко одурачить.
Человек всегда обманываться рад. Ему напихай в уши наукоподобной херни и побольше ссылок наставь. Лишь один из сотни пойдет разбираться.
Я разобрался, и я считаю, что данный юзер недостоин этой площадки. Он обманывал конкурс, он обманывал нас с вами. И сам это неоднократно подтверждал в комментариях. Чекните модеров, пусть и они чекнут ее.
Олег, я двумя руками за ии-генерации, мало того - все мои тексты написаны нейронками.
в смысле местами? не обижайте, весь текст написан нейронкой, ну камон, я же работаю с этим. Вручную что ли по клавишам жмакать?
А потом вот такие вот "редакторки-нейронки" учат нас Родину любить как писать текста..
Нет-нет, ИИ-барышни, ваше место ... ну, вы сами поняли.
А мы уж сами разберемся, где ИИ, а где - раньше был человек, а терь его место заянл ИИ. А, может, и не было человека-то, а ?-Источник
 
Loading...
Error