Data Adventures

266
Статистика
Статистика
266
Статистика темы
  • Популярность
    Топ-359
  • Постов
    740
  • Просмотров
    124,896
  • Подписок
    266
  • Карма автора
    +5,574
1 34 35 36 37 38
Какие темы вам наиболее интересны?
  • MTT
    28%
    5
  • NLH cash
    17%
    3
  • Omaha
    28%
    5
  • Spins
    6%
    1
  • "Философские"
    22%
    4
  • Да, я вот работаю с текстом. И даже простую задачу, например проверка текста на грамматику или перевод -- всегда нужно писать "перепроверь". И вот 95% случаев, он находит что-то ещё. 

     

    У меня клауд подписка

    Ответить Цитировать
    1/2
    + 2
  •  c00l0ne, вот в этом вся проблема, о которой я задумываюсь спустя 2 года. Если для написания сложного алгоритма мне надо в точности описать схему этого алгоритма, то получается код дописать я уже смог бы и сам 😁

    Ответить Цитировать
    6/7
    + 2
  •  c00l0ne, всё хорошо, но ответ неверный :) нет там кода b10:r20:c:f:f. Просто на вскидку, детали не проверял. Типа должен один игрок заколить и два зафолдить в игре с тремя игроками.

     

    типа где-то совпало, но так как решено бездумно, то с ошибками. И вот это моя претензия основная. Я могу написать код с помощью LLM за X времени, который допустим сам руками с нуля напишу за 3X, но по факту потом у меня в отладке вылезет сложно уловимая ошибка от того что я добавил в систему правдоподобный код написанный агентом и я потрачу 10-20X на поиск и отладку проблемы. Хорошо ещё если никого не подставлю, не потеряю репутацию и пользователи мне хуёв в тачанку не накидают. Если ответственность за код нулевая, то всё сгодится. 

    c00l0ne @ 27.05.25 

     SnowBeaver, ну такое ) 

    для игры которую почти не видела нейросеть , вообще не знает ничего о ней... 

    Ну покер да, это такая секретная игра. Её только тибетские гуру играют :) По факту весь корпус текстов есть в сети. Проблема не в том что нейросеть не знает. Проблема в том, что она не думает. Просто строит усреднённый ответ. Лингвистическое предсказание. И для любого реального программирования это риск проблем с непредсказуемой отсрочкой. 

     

    Программирование это вообще почти синоним написанию алгоритмов. Ты нарабатываешь всю жизнь паттерны, узнаёшь типовые алгоритмы, решаешь типовые классы задач и по итогу вот эту задачу уже видишь решённой как только дочитал условие. За это собственно людям и платят. За наработанную эрудицию и опыт. Собственно поэтому людей при трудоустройстве просят решать задачки на логику, а не писать циклы. Тут по сути если я ещё два промта сделаю с разбором решения внимательным, то я уже потрачу больше времени чем написание кода руками с нуля. 

     

    Я понимаю что это ассистент. И скажем приведение кода к PEP8 это ровно та задача, которую я буду решать с помощью LLM. Я просто хотел обратить внимание людей, что оно не программирует. В лучшем случае помогает (когда не наёбывает). В худшем закладывает бомбы дорогих ошибок. Просто для человека не в теме весь хайп на AI звучит как "ага, бля, вас программистов скоро всех уволят", будете курьерами за еду работать. AI приде, порядок наведе... Или страх, что работодатели просто не будут нанимать программистов, а делегируют весь труд секретарше, которая с помощью LLM всё закодит. А на деле оно не справляется с примитивными задачами. А я настаиваю, эта задача крайне простая. 

    c00l0ne @ 27.05.25 

    просто скинул картинку , но выглядит достойно

    Вот в этом вся и проблема. Происходит имитация. Про код нельзя сказать как он выглядит если он не решает поставленную задачу. Если ответ неверный, то кода пока нет. Потом уже когда задача решена можно навести лоск так чтобы другим программистам было удобнее читать (если вообще есть такая потребность).

    Ответить Цитировать
    333/352
    + 3
  • awakening @ 27.05.25  

     c00l0ne, вот в этом вся проблема, о которой я задумываюсь спустя 2 года. Если для написания сложного алгоритма мне надо в точности описать схему этого алгоритма, то получается код дописать я уже смог бы и сам 😁

    если при написании программы ты не знаешь как её написать не потратив интеллектуальные усилия, то за тебя программу написала система. В данном случае этого не происходит если она не понимает алгоритм. Но если бы система честно сказала "чувак, я тупая жестянка, не понимаю алгоритма", то это была бы охеренная система, которая реально помогает только там где может. А так как она будет галлюцинировать в любом случае и выдаст правдоподобную версию (для человека не в теме), то может наносить вред. Как минимум отнимет у тебя вагон времени, которое можно было потратить полезнее. 

     

    Я даже в людях это ценю очень сильно. Когда человек не понимая и не зная так и говорит не вводя в заблуждение.

    Ответить Цитировать
    334/352
    + 8
  •  c00l0ne

    пользоваться для программирования устаревшими нейронками кринж 

     такими как gtp-4o mini, gpt-4o, claude 3.5 и т.д. когда уже есть более мощные o3 , o1-pro , claude thinking

    ну так claude 4 выдало такой же результат как 4o mini в моей задаче :) Был непредвзятый тест. Если для практических целей мне хватает 4o (не мини), то это нормально что я её использую. PEP8 навести в питон коде оно может, подсказать библиотеки тоже. Ожидать большего я не могу от любой другой системы также. Для меня кринж в принципе с помощью них программировать так то...

    Ответить Цитировать
    335/352
    + 1
  •  SnowBeaver awakening, все верно, но последние версии немного пугают )

    SnowBeaver @ 27.05.25  

    Проблема в том, что она не думает. Просто строит усреднённый ответ. Лингвистическое предсказание. И для любого реального программирования это риск проблем с непредсказуемой отсрочкой. 

    в RL она еще как думает там, получше любого программиста... 

    там составляются пути разные решения задачи из известных ей алгоритмов, она бегает по ним, ищет лучший по дереву... 

    сейчас гляну что там за ошибка...

    Ответить Цитировать
    128/138
    + 1
  • c00l0ne @ 27.05.25  

     SnowBeaver awakening, все верно, но последние версии немного пугают )

    в RL она еще как думает там, получше любого программиста... 

    там составляются пути разные решения задачи из известных ей алгоритмов, она бегает по ним, ищет лучший по дереву... 

    сейчас гляну что там за ошибка...

    если подскажешь инструмент, который думает, то я могу следующим постом разобрать уже более серьёзную задачу. Следующую собственно. Если хочешь, могу тебе дать поковырять её. 

     

    Ну и да, нужна система решающая задачи, а не та которая "думает лучше всех". Если оно напиздит с три короба так что все будут думать, что это что-то "на умном", то никакой практической ценности в этом нет. Человек отличается от машины наличием мотивации решить поставленную проблему. Довести до результата, а результат довести до качества. Иногда у человека на разруливание целей уходят месяцы и годы. Некоторые системы пишутся много лет по причине того, что человек пока не придумал как будет правильно. 

     

    Пока для меня всё это думание выглядит как Алиса Теплякова, которая поступила в МГУ.

     

    А был ли неправ прапорщик? Алиса Теплякова, Тепляковы, Образование, МГУ, Дети

    и рисует тригонометрические тождества визуально по памяти с ошибками. А полный зал народа апплодирует т.к. это "на умном". При том что программа старшей школы... Я вот такой кринж сейчас ловлю играясь с LLM.

    Сообщение отредактировал SnowBeaver - 27.5.2025, 17:53
    Ответить Цитировать
    336/352
    + 1
  • SnowBeaver @ 27.05.25  

    если подскажешь инструмент, который думает, то я могу следующим постом разобрать уже более серьёзную задачу. Следующую собственно. Если хочешь, могу тебе дать поковырять её.

    самое дорогое что есть на рынке 

    o1-pro 

    codex 

    o3 

    ждем вот o3-pro 

    рекомендую попробовать gpt4.5 по конской цене ... там говорят она оч огромная нейронка ... но нету RL 

    желания нету ни в чем ковыряться ... 

    пока что это выстрелы на удачу... 

    но агенты близко уже которую будут ковырять задачу сутками и в любом случае доведут ее до финального решения

     

    SnowBeaver @ 27.05.25  

    кринж сейчас ловлю играясь с LLM

    кринжовые у них только цены )

    c00l0ne @ 27.05.25 

     

    сейчас гляну что там за ошибка...

    фолд не отсекает последний

    Ответить Цитировать
    129/138
    + 2
  • c00l0ne @ 27.05.25 

    ждем вот o3-pro 

    ну я походу опять на пару лет забуду тему, а потом вам на джипси напишу пост, что ничего не изменилось :) Тогда два года назад тоже что-то ждали.

    Ответить Цитировать
    337/352
    + 0
  • SnowBeaver @ 27.05.25  

    ну я походу опять на пару лет забуду тему, а потом вам на джипси напишу пост, что ничего не изменилось :) Тогда два года назад тоже что-то ждали.

    нет нетнет, скоро ты напишешь другой пост ))) 

    я вырыл бункер и прекрасно в нем себя чувствую ) )

     

    Ответить Цитировать
    130/138
    + 4
  •  c00l0ne, Это всё шляпа. Ничего не произойдёт. Запомните этот твит :) 

     

    Весь хайп по AI агентам в программировании это не более чем невроз. Повторюсь - расслабляем булки, учим матан, читаем библию, гладим английского дога у камина под односолодовый виски.

    Ответить Цитировать
    338/352
    + 4
  • man_of_letters @ 27.05.25 

    Да, я вот работаю с текстом. И даже простую задачу, например проверка текста на грамматику или перевод -- всегда нужно писать "перепроверь". И вот 95% случаев, он находит что-то ещё. 

     

    У меня клауд подписка

    Если проверять грамматику всегда только с помощью подсказчика, то твоё персональное знание грамматики твой мозг через какое-то время затрёт как ненужное. И важный профессиональный навык у тебя перейдёт из персонального в подписочный. По-моему это страшно.

    Ответить Цитировать
    339/352
    + 0
  • awakening @ 27.05.25 

     SnowBeaver, да, завышенные у тебя ожидания)) любую нетипичную либо большую задачу нужно дробить на несколько частей, копипастить ей ошибки на исправление и тд и тп.

    осталось найти где-то типичные, и чтобы мне за них платили...

    Ответить Цитировать
    340/352
    + 2
  • awakening @ 27.05.25  

     SnowBeaver, да, завышенные у тебя ожидания)) любую нетипичную либо большую задачу нужно дробить на несколько частей, копипастить ей ошибки на исправление и тд и тп.

    вот это заблуждение почему то у всех 

    мужики это не так работает 

    нейронке нужен 1 млн токенов промт и она выдаст ваши идеальные 10 строчек кода ... 

    ей надо описать историю развития холдема

    все правила детально

    все коллизии в холдеме

    все алгоритмы используемые в ваших целях 

     

    а потом она все равно с ошибками нахреначит ))) шутка конечно 

    это дорого но это сработает

    это сработает не один раз 

    это сработает последующие миллионы раз в которые вы обратитесь

    Ответить Цитировать
    131/138
    + 0
  • c00l0ne @ 27.05.25  

    это дорого но это сработает

    это сработает не один раз 

    это сработает последующие миллионы раз в которые вы обратитесь

    ровно до момента когда надо будет думать

     

    LLM это инструмент для определённого класса задач. Просто не надо закручивать шурупы молотком.

    Ответить Цитировать
    341/352
    + 2
  •  SnowBeaver, ну тут база просто такая обычно : 

    думают ли LLM ?

    21:48

     

     

    ChatGPT

    gpt-4.5-preview

    gpt-4.5-preview

     

    Большие языковые модели (LLM, Large Language Models), такие как GPT-4, не думают в человеческом смысле этого слова. Они не обладают сознанием, самосознанием, эмоциями или субъективным опытом. Вместо этого они работают на основе статистических закономерностей, выявленных в огромных объемах текстовых данных, на которых они были обучены.

    Когда LLM генерирует текст, он не «думает» в традиционном понимании, а скорее:

    Анализирует входные данные: модель воспринимает входной текст и преобразует его в числовые представления (векторы).

    Использует статистические закономерности: на основе этих представлений модель предсказывает наиболее вероятные слова или фразы, учитывая контекст и предыдущие слова.

    Генерирует текст: модель последовательно выбирает слова, которые статистически наиболее вероятны в данном контексте.

    Таким образом, хотя LLM могут выполнять задачи, которые выглядят как интеллектуальные (например, отвечать на вопросы, вести диалог, писать тексты, решать задачи), они делают это без понимания смысла или осознания своих действий. Их «мышление» — это лишь сложные вычисления и статистические операции, а не осмысленное рассуждение или сознательная деятельность.

    Тем не менее, некоторые исследователи считают, что модели демонстрируют своего рода «эмерджентное поведение» — неожиданные способности, возникающие при увеличении размера и сложности модели. Но даже в этом случае речь идет о сложных закономерностях, а не о сознательном мышлении.

    21:48

     

     

    -7.65600 RUB

    вопрос один работает или нет ? все остальное не важно ( 

    можно создать машину которая не думает, но перекрывает 99.99 возможностей человека)

    Ответить Цитировать
    132/138
    + 2
  • SnowBeaver @ 27.05.25 

    Если проверять грамматику всегда только с помощью подсказчика, то твоё персональное знание грамматики твой мозг через какое-то время затрёт как ненужное. И важный профессиональный навык у тебя перейдёт из персонального в подписочный. По-моему это страшно.

    Дело в том, что у меня по русскому было 4 из 10 в школе. 

     

    И в моем случае, работает наоборот -- я как будто, с ним учусь грамматике, пунктуации.

    Ответить Цитировать
    2/2
    + 3
  •  SnowBeaver, всё верно. ИИ всего лишь предсказательная модель, и годится она не для всех задач.

    Однако это хорошо работающий инструмент, и как заметил оппонент выше, стоит попробовать работать с ней так, как понятно ей, а не человеку. 

     

    И через два года, всё-таки, что-то да изменится. Некоторые люди работают над тем, чтобы понять как модель ищет закономерности и почему выдаёт порою неверные ответы.

    Ответить Цитировать
    1/4
    + 1
  • BobrKurva @ 27.05.25  

    стоит попробовать работать с ней так, как понятно ей, а не человеку.

    Я так и делаю. решаю специфический класс задач когда применимо. Просто для программирования оно не подходит. По крайней мере моего. Я вижу программирование как мыслительный процесс сильно отличный от того как работает LLM. И в моём случае идёт не оптимизация и упрощение моей работы, а наоборот. И я трезво смотрю на свои способности. Я не какой-то гений в программировании. Я середнячок. И задачи я решаю умеренной сложности. Не экстраординарные. Мне в жизни довелось несколько раз наблюдать над работой топовых чуваков с точки зрения интеллектуального развития. Там точно не генерация следующего токена происходит :) 

     

    попытка везде использовать LLM для меня выглядит как поведение человека, который держит молоток и поэтому любые задачи воспринимает как гвоздь. И чем меньше он их понимает, тем больше считает возможным решить с помощью бездумной машины. Типа ОК, этот молоток всё ещё недостаточно хорош, но через два года подвезут по настоящему крутые... Т.е. сам подход вообще не смущает. 

     

    Я могу понять восторг людей кто денег подняли на применении у себя в бизнесе LLM. Ну типа знаю одного кто "продающие тексты" в своём онлайн магазине написал все с помощью chat-gpt. А раньше платил живым людям. С его слов сэкономил за год 30k$. Но вот в чём мотивация верить у людей, которым ничего это всё не дало в практическом смысле для меня загадка. Типа если оно такое крутое и умное, то где его применение? Пока что ни одной серьёзной системы не написано с помощью LLM, но почему-то все верят в будущее такого подхода. Я вот простейшую задачку порешать не могу таким образом, но почему-то поголовно все считают, что машина уже думает лучше среднего программиста. 

     

    Вот скажем кто-то тестирует o1 pro на задачах криптографии. ссылка и это хорошее применение, потому что ну объективно наш мозг не создан решать такой класс задач. Но там же он например тестирует на институтской задаче по линейной алгебре. Вот сейчас не берусь её решить, но когда сдавал курс справился бы. Задача миллион раз решена, ответы есть в сети. Зачем мне знать рассуждения нейросети на этот счёт? Даже если они правильные это бессмысленно сожжённое электричество.

     

    Вот скажем если бы оно складировав весь опыт человечества объяснило бы мне как Рамануджан без математического образования и какой-либо вычислительной техники посреди коровьего дерьма смог написать вот это. 

    aad1aa0fa2b322028918da200c946296.jpg

    то я б такой. Ок, ну да, за этим будущее. А пока что всё ещё мозг слишком сложный механизм чтобы его заменить вот так запросто. Даже просто само предположение что все знания человечества содержатся в текстах интернета уже на мой взгляд дикая дичь.

    Ответить Цитировать
    342/352
    + 4
  • только для тебя )

    ChatGPT o3

    Как это вообще могло появиться?

    Что реально знал Рамануджан
    • Он вовсе не был «совсем без образования». В 16 лет ему попалась «Synopsis of Pure and Applied Mathematics»-– 5000 теорем Карра, выписанных почти без доказательств.
    • Из неё он выучил всё классическое: биномиальный ряд, гамма-функцию, θ-функции, гипергеометрические ряды, эллиптические интегралы.
    • Ничего «современного» (Гильберт, Лебег, аксиомы Пеано) он не видел, зато классическую аналитическую школу конца XIX в. повторил почти целиком – причём многократно, перепроверяя всё вручную.

    Откуда берутся такие ряды для π
    Самая короткая цепочка выглядит так (формулы опущены, чтобы не утонуть, но все шаги стандартны).

    a. Эллиптический интеграл
    K(k)=∫₀^{π/2} dφ /√(1–k² sin²φ).
    Легендрова формула даёт π=2 K(k) · K′(k) / √{k k′}, где k′=√(1–k²).

    b. Разложите K(k) в гипергеометрический ряд:
    K(k)= (π/2)·₂F₁(½,½;1;k²)= (π/2)·Σ₀^∞[(½)_n]^2/n!²·k^{2n}.

    c. Модулярная замена (Gauss ↔ Legendre) «склеивает» два таких ряда разного шага. Если τ принадлежит верхней полуплоскости и q=e^{iπτ}, то отношение K(k′)/K(k) = τ можно переписать как тождества между гипергеометрическими рядами с аргументами k² и k′². Это и называется модулярным уравнением степени N.

    d. Подберите τ такое, что модулярное уравнение имеет маленький q (тогда ряд сходится фантастически быстро). Для N = 25 (то же, что τ=i/√{25}≈i/5) после алгебры появляются числа 99 и 396.

    e. Выразите 1/π через получившееся тождество, раскрыв обе стороны в ряд по k. Коэффициенты превращаются в факториалы (4k)!/k!⁴; линейный многочлен 26390k+1103 – это остаток от производной, появившейся при дифференцировании по k.

    Почему именно 1103 и 26390?
    • Это не магия, а значение «j-инварианта» эллиптической кривой при τ = (1+√–163)/2.
    • j(τ)=−640320³, а 640320=2⁶·3²·5·7·11, отсюда 396=4·99=4·9·11, и после упрощений выпрыгивает именно та пара чисел.
    • 1103= 99²/2+23, остаток от приведения модулей. Всё жестко определяется алгеброй.

    Как Рамануджан всё это «увидел» без машин?
    • Он экспериментировал с θ-функциями q=e^{−π√m}. Подставив m=1,2,3,… и сверяя разложения, он сразу замечал «быстрые» случаи: m=58, 163 и т.д.
    • Дальше идёт «обратная инженерия»: из коэффициентов он угадывал, какое именно модулярное уравнение лежит под ними, и проверял руками.
    • Чудовищные вычисления (расходятся к 1/π с 8-й – 9-й цифрой на шаг!) не нужны, чтобы вывести формулу; нужны только, чтобы напечатать 100-200 знаков π, но это уже просто арифметика – в Мадрасе он действительно проделывал это в счётах и тетрадях.

    «Гений среди коровьего навоза»
    • Да, ты сидишь в деревне Куппам и пишешь мелом на доске, но у тебя в голове — полный справочник Карра плюс сверхъестественная визуальная память.
    • Индийская традиция тренировала устный счёт и формульное «пение» (Сута-су́тры, Ведическая астрономия). Рамануджан вырос на этом.
    • Плюс колоссальная работоспособность: 16 часов в день, 10-15 тетрадей в год, десятки тысяч примеров.

    Итог

    Формула Рамануджана для 1/π – результат классической теории эллиптических интегралов + модулярные уравнения + гипергеометрические ряды, а не мистическое «озарение». Он сам писал Харди: «Я постиг это, варьируя θ-функции». Нет никакого чуда в том, что человек, отшлифовавший эти инструменты до автоматизма, «без вычислительной техники» смог наткнуться именно на ту комбинацию, которая сегодня поражает нас экзотическими числами 99, 396, 1103 и 26390.

    Чудо другое: сколько таких комбинаций он нашёл — почти все, что мы до сих пор используем для высокоточных вычислений π.

    01:31

     

     

    -14.73447 RUB

    задрот

    Ответить Цитировать
    133/138
    + 0
1 34 35 36 37 38
1 человек читает эту тему (1 гость):
Зачем регистрироваться на GipsyTeam?
  • Вы сможете оставлять комментарии, оценивать посты, участвовать в дискуссиях и повышать свой уровень игры.
  • Если вы предпочитаете четырехцветную колоду и хотите отключить анимацию аватаров, эти возможности будут в настройках профиля.
  • Вам станут доступны закладки, бекинг и другие удобные инструменты сайта.
  • На каждой странице будет видно, где появились новые посты и комментарии.
  • Если вы зарегистрированы в покер-румах через GipsyTeam, вы получите статистику рейка, бонусные очки для покупок в магазине, эксклюзивные акции и расширенную поддержку.