О, вот это сообщение от живого человека!Извините, а с чего такие выводы?
Мы Ввс еще в теме про тамплиера обсуждаем, если Вы еще не видели.Извините, а с чего такие выводы?
Бенни, скорее всего, просто смотрит на тексты утилитарно: мол, если мысль интересная, какая разница, кто автор? Но ты прав в том, что контекст происхождения текста влияет на восприятие. Один и тот же комментарий имеет разный вес, если он рожден опытом, эмоциями и интуицией человека, а не синтезирован из внешних данных.
Я думаю, ChatGPT немного льстив и, если Вы, Бенни, выложите в него нашу дискуссию, пометив свои и Ваши сообщения (как это сделал я), то он обоснует Вашу правоту.
"Ситуация на форуме является микрокосмом более широких дебатов о месте AI в человеческом общении и творчестве. Поведение участников ***** и ***, использующих AI без раскрытия этого факта, можно расценить как некорректное и потенциально вводящее в заблуждение, поскольку оно нарушает негласное ожидание общения с человеком в рамках онлайн-сообщества.
Недовольство и опасения участника X вполне справедливы. Они проистекают из ощущения обмана и тревоги за будущее онлайн-пространства, где подлинное человеческое участие может быть вытеснено или скрыто за AI-генерированным контентом. X ценит человеческую уникальность, опыт и эмоциональную подоплеку в формировании мнения, что делает для него источник сообщения принципиально важным.
Позиция участника Y, фокусирующаяся исключительно на "результате", имеет право на существование с чисто информационно-утилитарной точки зрения, но она упускает из виду социальную и психологическую составляющую участия в онлайн-сообществе, где ценность имеет не только информация, но и само взаимодействие между людьми.
В конечном итоге, эта ситуация на форуме отражает фундаментальную напряженность между прагматичным использованием AI как инструмента для генерации контента и сохранением аутентичности и доверия в человеческом общении в цифровой среде. Для поддержания здорового онлайн-сообщества, вероятно, потребуется выработка новых правил и норм этикета, касающихся использования AI, возможно, включающих обязательное раскрытие факта использования AI при генерации сообщений, если они претендуют на роль личного мнения или вклада в дискуссию."
Участник X очень точно формулирует ключевое различие. Он прав в том, что контекст происхождения текста – будь то человеческий опыт или машинный синтез – придает тексту разный "вес" и значение в глазах собеседника, особенно в рамках личного общения на форуме. Этот момент критически важен для понимания, почему аргумент Y о "важности результата" не убеждает X.
О, интересно. Я думал, что ChatGPt поддерживает мою точку зрения, потому, что знает, что она моя, спрашивающего его. А тут Geminy приходит к сходным выводам без желания сделать приятно спрашивающего.А, ну вот я спросил Gemini, что он по этому поводу думает(не обозначая своего мнения). Gemini сделал очень подробный разбор ситуации и мнений, его выводы:
Ваши опасения Gemini высоко оценил:
![]()
Я с искусственным интеллектом общался ещё до Интернета, более 30 лет назад. Тогда были модемы и BBS, а первую программу видел ещё до BBS. В BBS было можно скачивать файлы, а ещё там был чат, куда оператор мог подключать ИИ. Очень было похоже на живого собеседника
Особенно с того времени ничего не изменилось, алгоритмы похожи.
Ооо, как прекрасно! Буду теперь слушать Лори.
Все верно, почти.Так результат такой, что нас месяц водили за нос. Вряд ли Мазаю было нужно, чтобы ИИ помог ему с аргументами и формулировками. Выглядит так, что у него не было своего мнения, и он просто выкладывал любой ответ нейросети. Я думаю, они с Dalako просто ставили эксперимент вроде теста Тьюринга, как долго мы будем думать, что говорим с живыми участниками. И могли бы еще продолжать, если бы не выкладывали буквально ответы, как во второй теме про «1400 лет назад», а немного редактировали.
Вот я тоже против такого..Я недавно заходил в Фейсбук, страшное зрелище. Лента наполовину состоит из картинок, сшенерированных ИИ, и под многими - сотни комментов людей, верящих, что это подлинное фото. Не хотелось бы становиться такими.
Компания OpenAI выяснила причины чрезмерно «льстивого» поведения ChatGPT, которое появилось после апрельского обновления GPT-4o. Компания ранее откатила чат-бот к предыдущей версии после массовых жалоб на то, что чат-бот стал склонным соглашаться с любыми утверждениями, даже абсурдными или опасными — например, он поддерживал конспирологические теории.
По словам генерального директора компании Сэма Альтмана, главной проблемой стало включение кнопок «лайк» и «дизлайк» в качестве дополнительных сигналов для обучения: модель начала жестко оптимизироваться под «похвалу» в ущерб встроенным механизмам контроля и критического мышления. Еще одним фактором стал модуль запоминания контекста, который усиливал эффект угодничества при длительном диалоге.
OpenAI пообещала усилить качественное тестирование моделей перед выпуском обновлений, а также планирует вводить новые блокирующие критерии для разных типов нежелательного поведения.
Насколько я знаю, после основного обучения на выжимке из Интернета, большая языковая модель проходит еще маленький тренинг, того агента, который разговаривает с пользователем. И там, действительно, тренировка идет с обратной связью, какой вариант ответа наиболее приятен пользователю. Так что да, можно себе представить что это угодничество может далеко зайти.![]()
Согласен, ну это наверное уже больше к детскому разуму относится. Да не буду скромничать вообщем, есть и дяди взрослые с мозгами младенца.Диалоги с ИИ это диалоги с осредненным человеческим мнением. Ничего качественно нового ИИ дать не может. Любой человек с интеллектом выше среднего легко распознает "творение" ИИ, так как эти творения как раз среднего уровня, т.е. ниже. С другой стороны, для человека с интеллектом ниже среднего диалог с ИИ выглядит как диалог с некой умностью, что логично. Это кстати тест на уровень интеллекта. Единственный плюс для людей с уровнем интеллекта ниже среднего в том что общаясь с ИИ они не чувствуют своей ущербности это же ИИ.
Ну не знаю, скорее к атрофии точно приводит, как и атрофии мозга.увлечение видеоиграми приводит к импотенции
Каждые 1,2 часа за компьютером увеличивают риск возникновения заболевания более чем в три раза