Ажиотажный спрос на новые карты Nvidia — заслуга не производителя, а косоруких разработчиков игр +26


AliExpress RU&CIS

После презентации новой линейки видеокарт серии RTX 3000, компания производитель графических чипов Nvidia столкнулась с беспрецедентным спросом на свою новую продукцию. Превышение розничных цен на топовые модели RTX 3080 и RTX 3090 составляет и $500 и более, что больше рекомендованной цены на 30-60%.



Причем просто на завышенных относительно оглашенных на презентации ценах проблемы с новыми RTX не заканчиваются. Так, один из официальных торговых партнеров MSI был уличен в спекуляции новыми видеокартами на онлайн-аукционах, а сами Nvidia заявляют, что купить по адекватной стоимости новые RTX 3080 и RTX 3090 можно будет не раньше следующего года. При этом релиз и поступление в продажу самой «вкусной» карточки RTX 3070 было вовсе отложено на две недели, с 15 на 29 октября 2020 года.

Человек, далекий от ПК-гейминга и релизов флагманских моделей железа справедливо спросит: «вы там что, совсем кукухой поехали? Какие 1200-1500$ за видеокарту? Какой ажиотажный спрос? Что вообще происходит?» Так вот, сейчас я, автор статьи, объясню, почему Nvidia столкнулась с таким ажиотажем вокруг RTX 3000 серии и почему геймеры с нетерпением ждут поступления в продажу этих видеокарт по заявленной стоимости.

То что RTX 3000 серии — геймерские карты ни у кого сомнений не вызывает. Для вычислений и науки у Nvidia давно есть карты серии Tesla V100 и Tesla A100. Это мощные графические ускорители за тысячи долларов, задача которых крайне проста и очевидна — считать. Причем считать, в основном, всякие «научные штуки» в составе вычислительного кластера. Новые A100, которые сейчас поступают в ограниченный тест, по заверениям Nvidia вовсе в 6 раз производительнее далеко не слабой V100. Собственно, о возможностях этих карт можно судить по официальным спецификациям с сайта Nvidia:



Говорю я о семействе ускорителей Tesla по одной причине: архитектура Ampere. Именно она лежит в основе графических ускорителей Tesla и до этого момента карточки на Ampere стоили до $10 тыс. и имели весьма узкую специализацию. В первую очередь, ускорители Ampere были направлены на тренировку нейросетей и по заверениям производителя справлялись с этой задачей на порядки лучше, чем другие решения. По официальным данным, карты на базе Ampere ускорили обучение нейросетей до 20 раз.

Но тут Nvidia выпускает потребительские видеокарты для геймеров с использованием той же технологии. Это как если бы Intel с 2016 года клепал серверные процессоры на литографии в 2 нм для суперкомпьютеров, каждый из которых стоил бы $10 тыс. и более, а тут внезапно вбросил бы новую серию Intel Core по $500 за штуку на той же технологии. Очередь бы выстроилась знатная.

Для Nvidia все выглядело красиво: больше мощностей по меньшей, по сравнению с триумфальной серией RTX 2000, цене, «научная» архитектура в компьютерах геймеров, поддержка большего разрешения и так далее и так далее. Вот только в коридорах Nvidia не ожидали, насколько потребитель нуждается в мощной видеокарте и что RTX 2080 Ti уже давно не удовлетворяет всех потребностей рынка.

Хотя RTX 3000 серии не показывает кратного превосходства над RTX 2080 и RTX 2080 Ti, а грядущий хит продаж — «бюджетная» карточка RTX 3070 всего на десяток процентов производительнее флагмана предыдущего поколения (вдвое меньшую стоимость мы пока опустим), рынок по-настоящему нуждается в этих видеокартах.

Давайте немного проанализируем, чем меряются производители пользовательского железа на своих презентациях, то есть каких «попугаев» для демонстрации своего превосходства они используют.

Нанометры, число ядер, частоты, TDP и так далее


Если говорить о процессорах и видеокартах, то главным аргументом любого спикера, прогуливающегося по сцене и представляющего новый продукт публике, будет размер техпроцесса и количество логических и прочих ядер. Сколько потоков, какой термопакет у нового камня, какую систему охлаждения придумали прикованные к батареи дизайнеры в недрах компании.

Само собой, идет абстрактное сравнение «производительности» с оборудованием конкурентов и с оборудованием собственного производства, но предыдущего поколения. Все это придает презентации фактуры и заставляет аудиторию качать головой в такт увещеваниями спикера.

На самом деле, тут иронии минимум. Компании на самом деле добиваются впечатляющих результатов по всем этим параметрам. Особенно радует TDP процессоров «красного лагеря»: AMD последовательно увеличивает производительность своих «камней», при этом удерживаясь в стандартном термопакете уровня 65-105 Вт. Это позволяет не городить огромные системы охлаждения, как во времена «электровафельниц» поколения FX, неадекватно большой термопакет которых стал легендой.

FPS в играх


А вот этот параметр всегда стоит отдельно. Как это не удивительно, но и на презентации центральных процессоров, и на презентации видеокарт всегда показывают количество кадров в секунду в самых последних и популярных играх. Вот, последние годы от презентации к презентации мелькают Fortnite, Call of Duty, Battlefield, Apex Legends, Control — короче, все те игры, которые на максимальных настройках графики делают видеокарте больно. Вот в этом году «делали больно» в разрешении 8к.



Для закрепления можно показать точно такой же по своей сути слайд с презентации процессоров Ryzen 5000 серии, которая прошла около двух недель назад:



И все эти столбцы всегда выглядят очень красиво и приятно. С каждым поколением производительность видеокарт и центральных процессорах в играх растет, а именно для игр это железо, в основной своей массе, и производится. Вот только все не так просто.

Почему все геймеры мира хотят оторвать разработчикам игр руки


Одна из главных причин, по которой геймеры всего мира бросились заказывать новые RTX 3080 и RTX 3090 в надежде заполучить карточку любой ценой не в тупости этих самых геймеров, и даже не в желании «опробовать революционные 8к» и так далее. Главная причина — желание получить хоть сколько-нибудь стабильную производительность, которая бы соответствовала бы возможностям современной периферии, в первую очередь, мониторам.

Для людей, далеких от игровой индустрии расскажу одну тайну: 60 FPS уже давно не стандарт. Да, почему-то на презентациях производители до сих пор говорят о «стабильных 60 кадрах в секунду», как будто бы эта производительность дает идеальный игровой опыт, но суть в том, что на рынке игрового оборудования уже давным-давно доминируют мониторы с частотой обновления экрана в 144 Гц, а на пятки им, стремительно дешевея, наступают мониторы с частотой 240 Гц.

Это значит, что для плавной картинки на этих экранах нужен и соответствующий FPS: 144 и 240 кадров соответственно.

И вот тут кроется корень проблем всей индустрии. Если раньше высокогерцовые экраны были прерогативой киберспорта, игроков в CS:GO и Quake, то теперь 144 Гц есть у любого уважающего себя игрока. 60 кадров остались в далекой древности: сейчас это стандарт для бюджетных «офисных» мониторов, потому что частота в 144 Гц дает ощутимое преимущество.

Описать на словах эффект от высокогерцового монитора сложно, но я попробую: представьте, что все внезапно стало двигаться чуть медленнее и намного плавнее. В движении пропадает эффект размытия и вы начинаете замечать малейшие детали. Вращение камеры вокруг своей оси больше не вызывает дезориентацию, вы продолжаете четко видеть окружающий персонажа мир. На рабочем столе движение курсора теперь намного более явно: если на 60 Гц при резком движении мышью вы зафиксируете взглядом курсор мыши в 5-6 местах, то уже на 144 Гц вы увидите его одновременно в 15-20 точках. На 240 Гц экранах эффект еще более впечатляющий, вы буквально взглядом сможете зафиксировать весь путь курсора мыши на высокой скорости. Для иллюстрации хорошо подходит знаменитый кадр из CS:GO, который демонстрирует разницу в тикрейтах сервера. Примерно то же происходит на высокогерцовых мониторах в плане отрисовки движения:



Именно поэтому, для четкого отображения происходящего в малейших деталях, все геймеры планеты уже плавно перешли на 144 и 240 Гц дисплеи, а кто не перешел — либо мечтает перейти, либо играет исключительно в пасьянс.

Но при этом нас до сих пор настойчиво убеждают, что 60 FPS — достаточное значение производительности. На этот параметр ориентируются разработчики игр, ориентируются производители железа. Однако как только речь заходит о работе игры в стабильных 144 FPS или, боже упаси, 240 FPS, пусть и на минимальных настройках графики, начинает происходить непонятное: ни одно существующее оборудование не может толком справиться с этой задачей.

Давайте возьмем две самые «косорукие» игры современности в плане перфоманса: Call of Duty: Warzone и Apex Legends. Обе делались совершенно разными студиями. Первая — производства Activision Blizzard, вторая — Respawn Entertament под патронажем Electronic Arts. Обе из популярного жанра Battle Royale, обе имеют обширные карты и огромную фанбазу.

Для обоих игр буквально с момента их релиза инженеры Nvidia истерично клепают патчи видеодрайвера, чтобы хоть как-то заставить их работать. Именно инженерные команды драйверописателей уж точно в курсе, что игрокам глубоко плевать на 60 FPS, вертикальную синхронизацию и все то, что увеличивает инпутлаг. Им нужны максимально высокие стабильные кадры хотя бы на топовых видеокартах.

Если вы не верите этому утверждению, можете погуглить сами: в сети сотни статей о повышении FPS в Call of Duty и Apex Legends, сотни тредов о конфигах, которые бы уменьшали графику или убирали «лишние» модели для снижения нагрузки на видеокарты, а так же масса рассказов о шаманизме, разгоне железа и прочих плясках с бубном.

Просадки производительности в топовых онлайн-играх, особенно в динамичных шутерах — болезненная реальность игровой индустрии последних лет. Разработчики буквально забивают болт на производительность своих продуктов за пределами 60 FPS и включенной вертикальной синхронизации, которая погружает камеру в «кисель» и создает чудовищный инпутлаг, чем вынуждают игроков вкладываться во все более и более мощное оборудование.

Скажу больше, все настолько плохо, что RTX 2080 Ti в указанных играх способны выдавать стабильные 144-190 кадров в секунду только при минимальных конфигурациях графики, но даже при этом иногда случаются дропы FPS! Любая граната, блик или огонь в кадре — и все, ваши фреймы машут вам рукой и говорят «ну, как это закончится, наберешь», FPS проседает до сотни.

Ситуация достигла уже такой шизы, что Nvidia приходится на своем официальном сайте выпускать официальные гайды по настройке видеокарты и графики в игре, чтобы выжать из нее необходимые комфортные для игроков значения кадров!



Именно по этой причине значительная часть геймеров и ломанулась покупать новые RTX 3080 и RTX 3090, просто в надежде, что уж на этих-то картах любимые игры смогут работать стабильно хотя бы на минимальных настройках графики.

Это не заговор, это нулевая культура разработки


Сейчас рынок находится буквально в западне. С одной стороны с каждым годом выходит все более и более мощное оборудование. Банально память DDR4-1600, которая лет пять назад считалась «неплохой», сейчас уже перешла в категорию «медленной офисной», а топовые когда-то DDR4-2400 сейчас просто середняк. То же происходит с процессорами, видеокартами, скоростью дисков и так далее и так далее.

Неискушенному пользователю, далекому от гейминга, может показаться, что конфигурации из i9-10900k, DDR4-3200, разогнанной до 4000 Mhz, все это с быстрым SSD и RTX 2080 Ti должно хватать для чего угодно на ультра настройках, но правда в том, что эта конфигурация с трудом обеспечивает 144-200 FPS в новых проектах. Вычеркните из списка выше любую составляющую и вставьте что-то «попроще и дешевле», например, RTX 2060S или core i7, и показатели кадров упадут минимум на 30%.

И виной всему не жадность производителей оборудования, а именно косорукость разработчиков и жажда наживы их издателей.

На тестирование и оптимизацию потребления ресурсов в 2019-2020 годах в индустрии был забит настолько большой болт, что будь он реальным, его было бы видно с МКС. Самый лучший пример, это сравнение Apex Legends и предыдущей игры Respawn Entertament — Titanfall 2.



Первая делалась в спешке, под постоянным давлением со стороны издателя, который бубнел над ухом команды разработки «нам срочно нужен свой батлрояль со скинами и лутбоксами». В итоге мы получили перспективный в плане геймплея проект (он опирается на многие механики и лор Titanfall 2), с абсолютно нулевой оптимизацией и отвратительным неткодом.

Titanfall 2, который вышел в 2016 году, почти всегда выглядит лучше и работает в разы стабильнее даже на средних конфигурациях железа, нежели быстро слепленный ради создания конкуренции PUBG и Fortnite модный Apex Legends. Не знакомый с проектами человек вообще посчитает, что Apex вышел в 2015-2016 году, а Titanfall 2 — свежий релиз, если показать их ему одновременно, хотя все с точностью, да наоборот.

Та же мрачная история происходит и с Call of Duty и прочими свежими проектами. Потребитель превратился в бесконечного бета-тестера, которому постоянно приходится выбирать между покупкой нового, более мощного железа, либо лагами.

Кстати, именно по этой причине многие с сомнением смотрят на будущее новых Xbox и PS5: если даже современные ПК толком не справляются с современными играми, то что смогут консоли? Будут ли сетевые кроссплатформенные проекты достаточно оптимизированными для игры в них? Опыт PS4 Pro и Call of Duty или Apex Legends показывает, что консоли банально не справляются с продуктами, которые почти полностью состоят из кода сомнительного качества. А про размеры Call of Duty в 200+ Гб уже просто ходят легенды.

Как это изменить


Я надеюсь, что когда-нибудь Nvidia надоест тратить силы и ресурсы на выпуск бесконечных патчей драйверов, которые улучшают производительность в проблемных популярных играх. За последние два-три года, с ростом популярности Fortnite, Apex Legends и Call of Duty Warzone компания-производитель оборудования выпустила столько патчей драверов и технологий, которые бы улучшали перфоманс в этих проектах (чего стоит хотя бы Nvidia Reflex, которая значительно снижает инпутлаг в Apex Legends и Warzone программным путем), что начинает кружится голова. Я за этот срок обновлял драйвера чаще, чем за предыдущие 10 лет вместе взятые.


Абсолютно привычная картина при входе в NVIDIA GeForce Experience

Выход из этой ситуации видится только один. Прекратить порочную практику «тяп-ляп и в проду, а Nvidia потом выкатит оптимизационный патч» возможно только в случае, если сами Nvidia объявят, что разработчики игр ведут себя, мягко говоря, нехорошо, и забили болт на оптимизацию. Должна случиться еще одна война в стиле «Epic Games VS Apple» только в этом случае с одной стороны будет производитель видеокарт, а с другой — игровые издатели, которые стоят с плетью и погоняют разработчиков, требуя от них новых лутбоксов и сезонов в ущерб качеству фундаментального кода.

Но случится это, только если Nvidia наконец-то пересилит свое желание продать как можно больше флагманских карт и выступит против творящейся в игровой индустрии вакханалии, у нас есть шанс получить нормальную производительность в игровых проектах и отсутствие ажиотажного спроса на новые модели видеокарт.

Вот только верится в это с трудом.




Комментарии (310):

  1. mistergrim
    /#22209064

    С такими бы статьями на оверклокерс.ру (нынешний).

  2. amarao
    /#22209068

    По поводу курсора на десктопе — брехня. Я когда Wacom Cintiq начал юзать, меня курсор страшно бесил. Полез разбираться — скорость отрисовки аппаратного курсора не связана с частотой обновления экрана и определяется спецификациями каких-то тараканьих годов. По моим наблюдениям — порядка 15 герц, вне зависимости от того, что S3 Trio 3D у вас, или Nvidia RTX100500.

    • ragequit
      /#22209104

      У меня прямо сейчас два ПК на столе, один 60 Гц, второй 144 Гц. Курсоры рисуются по-разному. Я сошел с ума?

      • amarao
        /#22209120 / +1

        1. Мы говорим про аппаратный курсор видеокарты, не про софтовый (как во многих играх)
        2. Посмотрите в slow-mo, так, чтобы можно было посчитать задержку между движениями курсора.

        Возможно, дело в удалении trail'а (послесвечении). Я не про это. Я про фактическое движение. Я начинал с этим разбираться в линуксах, потом проверил — в виндах и на маке одно и то же.

        • ragequit
          /#22209130

          Речь же шла не о том, как это происходит под капотом, а о том, как это ощущается визуально.

          • amarao
            /#22209160 / +1

            Ощущаться оно может как угодно, но если там те же 15 fps, то толку от 144.
            С большой вероятностью, вы видите эффект от black фреймов (или как они там называются), которые уменьшают послесвечение.

            • mistergrim
              /#22209252 / +1

              Полагаю, ощущается уменьшение инпут-лага.
              Записал сейчас сло-мо, пошевелил курсором — да, как раз 15 кадров в секунду.

              • amarao
                /#22209272 / +1

                Т.е. я про это с криком "брехня" и говорю. А главное, в играх уже, вон, 144, и 250Гц, а десктопный курсор всё так же застрял в VESA 800x600x256 цветов, 15 fps, какая ляпота.

                • mistergrim
                  /#22209362

                  Мда, вот в какую сторону какахи надо кидать, а не в производителей игр.

                • EvilFox
                  /#22211112

                  Вы явно дезинформацию пишете. В Windows (за старую XP не скажу, там ещё окошки программно рисуются) указатель рисуется в зависимости от герцовки выставленной монитору в системе. В интернете на специализированных сайтах полно доказательств этому.
                  В Linux/MacOS понятия не имею как с этим.

                  • cepera_ang
                    /#22211414

                    за старую XP не скажу, там ещё окошки программно рисуются

                    Эээ, 2д-окошки тогда как раз наоборот аппаратно рисовались, да перестали в новых версиях (вернее финальная отрисовка переехала на аппаратные плоскости в 3д, но само содержимое 2д окошек стало рисоваться софтварно, ЕМНИП)

                  • amarao
                    /#22212512

                    Возьмите телефон, сделайте slowmo для движения курсора. (Я про обычный десктопный курсор, не в играх).

                    • andreymal
                      /#22212908

                      На моём 60Гц мониторе получилось ровно 60 кадров в секунду, ЧЯДНТ? https://www.youtube.com/watch?v=vW8gEJ_oavI
                      (видео местами дёргается потому что мой телефон зачем-то снимает 77 кадров в секунду)

                      • amarao
                        /#22213930

                        Я открыл плеер с функцией прыжков по кадрам (vlc, 'E'). Проверил.


                        И, кажется, мне очень стыдно. Я вычел один тайминг из другого и получил… 17. Не фреймов. Милисекунд. Кажется, я просто забыл поделить на единицу.


                        Мне стыдно.


                        Интересно, на 144/250Гц мониторе курсор двигается с задержками в 7/4 ms?

                        • andreymal
                          /#22213954

                          Hint: на ютубе тоже можно двигаться по кадрам, тыкая в точку на клавиатуре)

                          • amarao
                            /#22213994

                            На самом деле по сравнению с моими экспериментами, главное — вы таймер на экран вывели. Я кропел над формулами fps'ов с slow-мо и забыл поделить. Получилось 16-17 (что логично было округлено до 15). Это были милисекунды, но я решил, что это fps.


                            Видимо, если на 250Гц мониторе быстрый курсор, то я становлюсь фанатом 250Гц мониторов. Потому что 60Гц для рисования никак не хватает.


                            Если штрихуешь, это порядка 2-5 штрихов в секунду. 60 fps = до 12 кадров на штрих. Если штрих хотя бы 10см (забыли про пикселы), то при условии, что штрих "разгоняется/замедляется", положения курсора выглядят так:


                            * *    *        *                   *       *     *   * *

                            (я сократил число точек, чтобы влезло в одну строку).


                            Страшно бесило. Да, 60 fps уныло.

            • siziyman
              /#22214112

              Заметки на полях: ну вы ошиблись и признали свою ошибку (с кем не бывает — no big deal в моих глазах), но люди вас плюсовали, и интересно, почему…

              • amarao
                /#22214148

                Потому что если подёргать курсор на экране (особенно, на 25"+), то будет полная иллюзия, что это 15 фпс. Очень рябит.

                • iDm1
                  /#22214708

                  Вот шаг от 60 к 144 в таких вещах очень заметен. А далее нужны шаги все больше и больше, т.к. в миллисекундах разница становится все меньше и меньше. После ~400Гц придется делать скачок сразу к заветной 1000Гц, чтобы это имело смысл.

      • 0xd34df00d
        /#22211204

        У меня рабочая машина с монитором на 60 Гц и игровая на 144. Разницы я не вижу вообще.

        • SergeyMax
          /#22211824

          У сына монитор 144 Гц, при перемещении окон разница видна невооружённым взглядом (хотя не могу сказать, что за эту разницу я готов заплатить много денег).

          • cepera_ang
            /#22211924

            А много и не надо, зачастую после того как технология пришла, она становится просто бесплатной (дефолтной) частью обычных продуктов :) Первые пользователи — да, оплатили сполна развитие, а дальше просто будет в каждом мониторе.

        • siziyman
          /#22214030

          А вы в настройках ОС-то включили частоту обновления 144 Гц? Она автоматически не обновляется с 60 при смене монитора.

          • sumanai
            /#22214130

            Не знаю как при смене, но у меня для новой установки и мониторов 75 ГГц выставилась родная частота.

            • Chamie
              /#22214502 / +1

              для новой установки и мониторов 75 ГГц выставилась родная частота.
              75 гигагерц? Неплохо.</s>
              75Гц и у меня выставилось… когда я подключил 144Гц монитор.

              • sumanai
                /#22214520

                А говорили 60.

                • Chamie
                  /#22214604

                  Я не говорил. Но то, что частота выставляется не максимальная доступная — это факт.

        • khulster
          /#22214144

          Начинали еще с CGA-EGA-VGA? ;)
          Я вот долго не мог понять, что означает столь популярное «мыло». И до сих пор не уверен, что правильно понимаю.

    • iDm1
      /#22211102

      Вы ошибаетесь. В статье ситуация с курсором описана верно. Отрисовка курсора происходит при каждом обновлении экрана, что логично. И чем выше частота этого обновления, тем плавнее курсор визуально.

      На частоту обновления координат курсора сообщаемых операционной системой приложениям его отображение не влияет и зависит от поддерживаемой частоты опроса устройства ввода, мыши, трекпада, планшета. Как правило она значительно выше.

      Если у вас курсор обновляется с частотой в 15 кадров в секунду при вводе с Wacom Cintiq, то это проблема исключительно Wacom Cintiq или его драйверов. Можете убедиться в этом хотя бы тут zowie.benq.com/ja/support/mouse-rate-checker.html, сравнив его с нормальной мышью с частотой в 1000Hz.

      Беспроводная Logitech G603
      image

      • mistergrim
        /#22211478

        Частота опроса с частотой отрисовки курсора не связана никак вообще.

        • iDm1
          /#22211836

          Частота опроса не связана с частотой отрисовки, но результат отрисовки зависит от частоты опроса. Если устройство ввода предоставляет данные с частотой всего 15 Гц, то отличаться между собой результаты отрисовки будут тоже только 15 раз в секунду, а остальное время будут повторяться.

          • Andy_Big
            /#22212190

            Но и с другой стороны — если устройство ввода предоставляет данные с частотой 1000 Гц, то это не значит, что и курсор будет отрисовываться на экране с такой частотой.

            • iDm1
              /#22212490

              Если графическая карта и монитор будут работать в режиме обновления 1000 Гц, то и курсор будет отрисовываться с такой же частотой. Но на данный момент монитор с поддержкой более 300 Гц на рынке не представлен.

              • amarao
                /#22212510

                Отрисовываться будет, а вот сдвигаться в сторону будет не чаще, чем 15 раз в секунду. Т.е. если refresh ratio (условные) 150Гц, то движение курсора будет происходить не чаще, чем раз в 10 кадров.


                Enjoy.

                • cepera_ang
                  /#22212944

                  Серьёзно, это видимо какая-то особенность вашего планшета или системы, но обычный курсор совершенно очевидно _не двигается_ 15 раз в секунду, это было бы совершенно невыносимо.

                  • amarao
                    /#22214000

                    В треде выше выяснили — это моя ошибка деления. 15мс vs 15 fps.


                    Я теперь фанат 250Гц.

                    • cepera_ang
                      /#22214480 / +3

                      Я фанат 1000fps после этого видео и другого релевантного ресёрча, но это придётся ещё чуток подождать (пока максимум доступный просто в магазине это 360гц. Кстати, для рисования ipad pro должен быть хорош — там 120гц и эпл уделяет много внимания снижению задержки со стилуса, но я не художник, лично оценить не могу, кроме того, что отзывчивость в целом очень нравится


                      • sotnikdv
                        /#22223796

                        У меня iPad Pro для чтения книг, рисовать на нем можно, но не нужно.

                        Я использую стилус для заметок и для рисования по PDF при чтении. Очень далеко от бумаги по точности и не очень хорош по скорости.

                        Хотя свое дело железка делает и лучшего пока ничего не нашел

                  • mistergrim
                    /#22216398

                    «Совершенно очевидно» — это не аргумент. Для меня тоже было совершенно очевидно, а записал видео — и там 15 fps.

                    • siziyman
                      /#22216928

                      Однако у автора оказалось не 15 фпс, он ошибся в расчётах. :)

                      • mistergrim
                        /#22217174

                        У автора расчёты, а у меня эксперимент.
                        При этом частота опроса порта — стандартные 125 Гц.

                        • iDm1
                          /#22218784

                          У автора расчеты на основе такого же эксперимента. Исходите из того, что курсор ОС всегда передвигается с той же частотой, что обновляется экран (или с частотой устройства ввода, если она окажется ниже) и ищите где ошиблись.

              • Andy_Big
                /#22212516

                Я неправильно выразился. Отрисовываться — да, а вот менять свое положение — вовсе необязательно.

      • amarao
        /#22212500

        Отрисовка курсора происходит аппаратно, на каждом кадре. Но положение курсора меняется не более чем 15 раз в секунду. Просто возьмите вашу тысячегерцовую мышку, повозюкайте на вашем 250Гц экране, запишите видео в slow-mo и увидьте самые что ни на есть посконные 15Гц, которые выглядели удивительно хорошо для VESA 640x480, и даже для 1024x768.


        Т.е. ввод у вас на ТЫЩУ герц в секунду. Вывод на 250Гц, а обновление — пятнадцать раз в секунду. Не нравится? Отключайте курсор. Именно так я и сделал в krita при рисовании. Я отключил курсор, и krita была способна рисовать размытые сложные текстуры кисти быстрее, чем видеокарта показывала курсор.


        И API отрисовки курсора насрать сколько у вас герц. Сказали 15, значит 15.

        • SergeyMax
          /#22212772

          Скажите, вы сейчас о какой именно операционной системе говорите?

        • iDm1
          /#22212878

          У вас проблемы с конфигурацией. Не стоит думать, что все страдают так же как вы и дезинформировать остальных.

          Пожалуйста, обычный монитор на 60 Гц
          image

          • amarao
            /#22213764

            Это интересно. Вы делали screen capture? Я смотрел на slow-mo и считал задержку между прыжками курсора. У меня получалось 60ms.

            • iDm1
              /#22213814

              Да, это запись экрана через OBS Studio. Снимать экран на видео в данном случае нет необходимости, т.к. если обновление курсора уже происходит 60 раз в секунду, то при выводе на экран эти обновления никуда исчезнуть не могут в принципе, если не уменьшать частоту обновления всего экрана с пропуском кадров.

              • amarao
                /#22213824 / +1

                Т.к. аппаратный курсор не захватывается с экрана (его нет на bitmap пикселей), то его "пририсовывают" по текущему положению при захвате (для этого есть спецопция — показывать курсор). Может ли быть так, что его пририсовывают чаще, чем видеокарта отрисовывает?

                • iDm1
                  /#22214184

                  На счет изображения самого курсора на видео вы правы, т.к. со стороны разработчиков OBS куда удобнее отрисовывать курсор для каждого кадра кодируемого видео из координат системного API, нежели как-то синхронизировать его с частотой обновления экрана, которая может быть совсем иной и никаких преимуществ не даст.

                  Но визуальные эффекты вызываемые курсором отрисовываются только, если сам курсор отрисовывается на них. Иное поведение сильно бросалось бы в глаза и раздражало бы пользователя как «тормознутость» интерфейса.

                  Я вижу, что вы уже нашли источник ошибки в определении частоты отрисовки вашего курсора и дополнительные доказательства вам уже вряд ли требуются.

    • ClearAirTurbulence
      /#22214830

      скорость отрисовки аппаратного курсора не связана с частотой обновления экрана и определяется спецификациями каких-то тараканьих годов.

      Программа F.lux при включенной соответствующей опции, насколько я понимаю, меняет курсор на софтверный при необходимости (например, при сильном снижении яркости, или включении различных фильтров) — т.к. в противном случае штатный курсор слишком выделяется. Этот софтовый курсор будет плавно двигаться, интересно?

      • cepera_ang
        /#22214916

        Меняет курсор на софтверный или просто меняет аппаратную иконку на желтенькую?

  3. grvelvet
    /#22209078 / +2

    Так было бы это еще только в играх, весь софт жиреет на глазах.

    • JamboJet
      /#22209764

      Сколько там нынче занимает обычная вебстраница с статьей в три абзаца теста и парочкой иллюстраций?

      Сто, двести мегабайт?

      • Nalivai
        /#22209872

        Вот эта, с картинками, скриптами и комментами 9 с чем-то

        • justhabrauser
          /#22211116

          Кстати для улучшения восприятия мегабайта: 1 мегабайт ~= 1 книга в 300..400 страниц.
          То есть 3.5 мегабайта ~= 1 x "Война и мир".
          А эта, с картинками, скриптами и камментами — как увесистая книжная полка.
          Такие дела.

          • Louter
            /#22213200

            Сравнивать картинки с текстом — в корне не верно, всё-таки если картинки будут во всё той же книге, то она тоже просто начнёт весить и 900Мб (большие электронные книги по биологии, например)
            Хотя даже без картинок много весит, это бесспорно) У меня был «проект» (эксперимент) — страница в 1 пакет (1500б с учётом заголовков после gz). Продуктовая ценность сомнительна, но как челлендж)

          • merlin-vrn
            /#22216720

            Когда-то мне выписывали журнал «Юный техник» и там они писали про флоппи-диск (кмк, 1.44М): «на него можно переписывать почти весь выпуск журнала». Т.е. журанл ЮТ занимал порядка 1.44М, чуть больше, в начале 1990-х. Без картинок — не поверю, не такой уж большой журнал, точно не Война и Мир, даже с разметкой полтора метра не будет. А с картинками как-то маловато.

        • JamboJet
          /#22213922

          Что очень мало и скромно.

          Если лет пять назад ругались на кликбейтные гифки по мегабайту весом, то как я заметил, сейчас перестали стесняться даже встройки рекламных видеороликов на 30-50 мегабайт.

  4. edogs
    /#22209182

    Интересно, ноутбуки поддерживающие 4к со 120гц и выше по hdmi и/или dp есть? Не спрашивали бы тут, но по текущим каталогам ЯМ и прочим фильтров такого рода просто нет. Просто интересно — вот этот весь ажиотаж по поводу 120гц и выше — он для десктопов в основном или и для ноутов тоже.
    p.s.: То что есть ноуты со 120гц и выше на родном мониторе — знаем, речь именно про возможность подключения большго внешнего телека (по хдми) или монитора (по хдми или дп).

    • Sasha5a
      /#22209388

      Выход сигнала 4k@120hz поддерживает только серия nvidia 3000, ноутбуков с такими карточками пока нет. Edit: по HDMI, DisplayPort не часто в ноуты ставят.

      • mm3
        /#22209888

        сейчас в ноутбуках новый тренд ставить usb type-c с проксированием HDMI и DisplayPort

      • printf
        /#22212744

        Можно в качестве адового workaround-а прицепить eGPU через Thunderbolt, если ноутбук на Интеле, и туда уже внешний монитор. (Это немношк читерство, да.)

    • printf
      /#22212212

      4k@120 на ноутбуке — это разве что пустой экран рендерить. (Но да, вывести на телевизор тоже не получится.)

      • edogs
        /#22214518 / +1

        В статье просто было сказано про плавность даже интерфейса виндов в 120гц, нагрузки на видяху там примерно ноль от интерфейса и если разница заметна, то почему бы и нет? На монитор (дп) или на телек (хдми) вполне приятно было бы вывести.

        • printf
          /#22214656

          Я в самом деле не уверен, насколько заметна разница — т.е. я юзаю монитор 144 Гц, но на нем ведь открыт, грубо говоря, браузер и ютуб, а в ютубе видео максимум 60 фпс по-моему. Или редактор, а в нем буквы.

          Вот в играх да.

          • siziyman
            /#22214688

            Разница очень ощутима при скролле, движении курсора, перемещении окон.
            Стоит ли оно того _только_ для этих кейсов — вопрос философский (по-моему, не очень; а вот для игр, даже несоревновательных — да, разница невероятная), но разница есть.

          • Chamie
            /#22219156

            а в ютубе видео максимум 60 фпс по-моему
            Если открыть 60фпс видео и включить скорость 2х, то будет 120, утверждают.

  5. Tujh
    /#22209300

    Я один не понял как геймеру поможет 144 Гц на мониторе если на сервере просчёты, трассировки и синхронизация игроков не зависят от его видеокарты и скорее всего осуществляются раз 10 в секунду?

    • realimba
      /#22209368

      в CSGO есть серваки с 128 hz тикрейтом, в автосимуляторах физика на клиенте считается, да и вообще лучше иметь частоту игры в 2р больше чем тикрейт сервера, кто хоть недельку играл на быстром мониторе назад не вернется..

      • Tujh
        /#22209602

        в CSGO есть серваки с 128 hz тикрейтом
        Вот это уже интересно, почитаю, спасибо.
        в автосимуляторах физика на клиенте считается
        Если это лишь для красоты ОК, иначе прямой путь для читеров.

        • realimba
          /#22209706 / +1

          В Assetto Corsa физика тикает на 333 hz только на клиенте, сервер верит клиенту на 100%. И большая часть шутеров работает по схожему принципу, отсюда и миллиарды читеров.

          • 0xd34df00d
            /#22211200

            Если взять не авто-, а авиасимуляторы (DCS), то играть с большими пингами таки боль.

        • M_AJ
          /#22211976

          прямой путь для читеров

          Так их там не мало. Автосимы спасает только нишевость. Были бы они так же популярны, как CSGO, играть было бы невозможно.

    • SinsI
      /#22209548

      Если быстро развернуться в шутере, при 144 Гц геймер может увидеть больше промежуточных кадров, что позволяет лучше определить нахождение и скорости противников.

      • Tujh
        /#22209626

        позволяет лучше определить нахождение и скорости противников
        Все эти параметры приходят с сервера, если же игра пытается интерпретировать положение игрока то получится, что на клиенте вы выстрелили в противника, а для сервера это ещё/уже пустое место — вы уверены, что попали, а сервер говорит «мимо». Я не прав?

        • Tarik02
          /#22210230

          Расскажу на примере движка Source. На клиенте и сервере есть все игровое состояние, клиент выполняет некоторую интерполяцию (если пинг совсем уж большой, то даже екстраполяцию). Также, клиенту известно что находится сзади игрока, то есть если вы повернётесь назад то вы увидите что там есть (или было на сервере несколько мгновений тому). И сможете среагировать на чувака, который на вас целится.


          А теперь перейдём к самому интересному: стрельбе. Когда вы стреляете, то вы отправляете эту команду на сервер, сервер знает пинг и временно «в уме» возвращает всех игроков в те позиции, которые были когда клиент стрелял. То есть, если клиент попал, то независимо от ринга он реально попадёт. А вот если в вас стреляли, вы спрятались за стену, то не факт что вы живы — есть небольшой промежуток времени (100-200 миллисекунд) когда вас могли убить.


          Подробнее можете почитать здесь: https://developer.valvesoftware.com/wiki/Source_Multiplayer_Networking

          • Tujh
            /#22210788

            Я в достаточной мере, надеюсь, представляю как работает сетевая синхронизация, что снова возвращает нас к вопросу, если все расчёты идут на сервере, то частота обновления кадров у игрока на компе особой роли не играет. Потому что это не может быть TCP с нарастающим лагом по времени, а в случае с UDP возможны «скачки» позиций других игроков (что иногда и наблюдается в играх) связанные именно с интерпретацией и восполнением потерянных пакетов и редким просчётом на стороне сервера и, следственно, «промахи» когда игрок уверен, что попал.
            Если просчёт идёт на строне игрока — это прямой путь к читерству, тем более, что у кого-то 150 fps, а у кого-то 30 и синхронизироать их практически невозможно.
            По приведённой ссылке как раз и описываются методы компенсации сервера, просчитывающего положения игроков 10 раз в секунду.

            • Tarik02
              /#22210810

              Частота кадров играет роль. Как минимум, при большей частоте кадров меньше задержка между тем игровым состоянием и рендером на экране. Если брать в пример киберспорт, то на чемпионатах используется локальная сеть, поэтому пинг — абсолютно не проблема. Если пользовательский сегмент — просто плавнее всё.

              • Tujh
                /#22212448

                Частота кадров играет роль. Как минимум, при большей частоте кадров меньше задержка между тем игровым состоянием и рендером на экране.
                А игры до сиз пор однопоточные? О_о
                Если на сервере просчёт идёт условно 10-20 раз в секунду, я не понимаю как это снизит задержку между игровым состоянием и рендером, который и так обновляется 60 раз в секунду, ну будет обновляться 144, и? Синхронизация с сервером то всё равно в большинстве случаев реже.

                • random_villain
                  /#22212798 / +1

                  Следовательно, если на сервере всё считается 10 раз в секунду, на клиенте будет достаточно 10 кадров, верно?


                  Мы сильно переплачиваем даже за 60 Hz мониторы

                  • Tujh
                    /#22213586

                    Учимся читать что написано, а не додумывать, речь шла какие именно преимущества даст 144 Гц перед 60 Гц при том, что играем в онлайн игру с расчётом положений игроков на стороне сервера.

                    • siziyman
                      /#22213646

                      Ещё раз: с учётом того, что 1) наиболее требовательные к скорости реакции соревновательные игры играются на серверах с тикрейтом 60+, а то и 120+ и 2) есть интерполяция (и положения игроков/объектов в том числе) и синхронизация, разница есть, и она о-гром-на-я.

                • Tarik02
                  /#22213402

                  Не так часто просчёт на сервере идёт 10-20 раз, разве что медленных играх, к примеру в Minecraft — 20 раз в секунду. Но в быстрых играх эти значения намного выше — в CS GO 64 или 128 тиков за секунду. Рендер не всегда рендерит актуальное состояние, происходит например интерполяция (плавное перекрещение между предыдущим и следующим состоянием происходит несколько кадров) и у вас плавнее картинка.

                  • Tujh
                    /#22213630

                    Я говорил не о плавности картинки как таковой, а о том, что 144 Гц не даёт преимуществ игрокам, а порой наоборот может привнести негатив, когда из-за низкой скорости синхронизации будут возникать разночтения между сервером и клиентом.
                    Если я сейчас на ютубе посмотрю несколько видео стримеров по CS:GO или летсплейщиков я точно ни разу не увижу ситуацию когда они выстрелили точно в противника, а пуля/снаряд/что-то ещё прошли насквозь так как серверная коллизионная модель не совпала с клиентской?

                    Речь в оригинальной статье шла же только о волшебном мире топовых видеокарт в связке с 144 Гц мониторами, и автор ни разу не обмолвился, что для он-лайн игроков скорость просчёта на сервере может быть даже важнее, а в идеале она должна быть более-менее синхронна частоте кадров.

                    • siziyman
                      /#22213654

                      автор ни разу не обмолвился, что для он-лайн игроков скорость просчёта на сервере может быть даже важнее,
                      В статье о тёплом автор ни разу не обмолвился о том, что мягкое тоже важно, действительно, шокирующие новости.

        • Chamie
          /#22211460

          Дело не в том, успели ли вы в него выстрелить, когда увидели, а увидели ли вообще и сколько кадров с ним вы увидели. Потому что если на одном кадре он был от вас за стеной, а на следующем уже пробежал просвет или застрелил вас — то вам не поможет никакая реакция.

          • Tujh
            /#22212454

            Вы сейчас про разницу между 60 и 144 Гц или про 10 и 60 fps?

            • Chamie
              /#22214594

              И так, и так. Прыгающий игрок пролетает мимо вашей «форточки»/бойницы — можете и на 60Гц не успеть увидеть либо вообще ничего, либо деталей. Либо увидеть только часть его тела. Кроме полёта так же работает и с просто быстрым поворотом «головы» (поля зрения).
              Кроме прочего, просто движущийся предмет при слежении за ним глазами размывается обратно пропорционально ФПС (посмотрите на тот же «НЛО-тест»).

    • printf
      /#22212252

      Прицеливание локальное, и реакция персонажа на ввод тоже локальная. А другие игроки интерполируются, игра додумывает промежуточные значения. Т.е. визуально они тоже движутся плавнее, хоть это и менее точное представление.

      Еще в играх навроде CS:GO ввод обрабатывается в каждом кадре, т.е. выше фпс == меньше инпут лаг. Поэтому все отключают v-sync и ограничение по фреймам, и рендерят 300-400 фпс, хоть монитор и отдает 144.

      • Tujh
        /#22212482

        Прицеливание локальное
        И поэтому в некоторых играх можно включить серверный прицел?
        Локальное прицеливание — открытая дорога для читеров с автовыцеливанием уязвимых зон. Если это так, в CS:GO играть я бы не хотел.

        • printf
          /#22212738

          Нет, прицеливание как процесс происходит локально. Вы двигаете мышкой, мир вокруг камеры поворачивается. Чем ниже фпс, тем сложнее точно навести перекрестье на цель, особенно в движении.

          Что такое серверный прицел? Вы про hit reg? Это конечно на сервере.

          (Ну и да, вы бы не хотели играть в CS:GO безотносительно. Никто бы не хотел. Просто соревновательных шутеров-то не делают, вот и насилуем потихоньку труп с графикой родом из 2004.)

          • siziyman
            /#22213570

            Никто бы не хотел. Просто соревновательных шутеров-то не делают, вот и насилуем потихоньку труп с графикой родом из 2004
            Неправда, отличная игра.

            Соревновательные шутеры делают — Apex Legends, R6: Siege, Valorant, в конце концов Diabotical и Quake Champions живые. Вот только КС лежит в практически идеальной нише easy to learn — hard to master, который делает её практически «непобедимой» с т.з. и простоты вовлечения игрока, и простоты вовлечения зрителя, если мы говорим о киберспорте.

            • printf
              /#22213794

              Ну я про это и говорю, навешают свистоперделок, какие-то классы персонажей с абилками а-ля Дота, с магией и девочками-волшебницами — вот и возвращаемся каждый раз в CSGO.

              Я ж её тоже люблю, классная игра. Сделайте мне такую же точно, но с графикой! Нет, вот тебе вместо этого Overwatch, который по сути Дота от первого лица, и вот тебе еще Fortnite, где противник превращается после одного выстрела в девятиэтажный дом.

              Беда печаль.

              • sumanai
                /#22213862

                Сделайте мне такую же точно, но с графикой!

                А собственно зачем?

              • siziyman
                /#22213876

                «такую же точно, но с графикой» делать, во-первых, сложно (повторять всякие там quirks физики движка — а это на высоком уровне в КС крайне решает, тонкости вашего микроконтроля это прям всё-всё-всё), во-вторых, не шибко нужно широкой публике — то, что КС можно запускать по современным меркам хоть на утюге, идёт ей только в плюс. Охват больше. А на серьёзном уровне, опять же, игроки настройки графики и разрешение дропают «в ноль», чтобы добиться стабильно высокого фреймрейта и «консистентной» возможности разглядеть противника на любом фоне (меньше эффектов — вас меньше парит, например, освещение там, где стоит противник, увидите так и так).

          • Tujh
            /#22213678

            Нет, прицеливание как процесс происходит локально.
            Можно я с вами не соглашусь, потому как это сильно зависит от реализации игры.
            В некоторых играх, где авторы заморочились над античит-системой прицел целиком серверный. Клиент отправляет смещение мыши в условных попугаях (10 вверх, 4 влево), сервер рассчитывает относительно своих данных куда смотрит прицел и высылает клиенту фактическое положение. Процесс может быть асинхронный для компенсации больших пингов, но тогда должна выполнятся периодическая процедура синхронизации.
            Если прицеливание будет целиком на клиенте — можно написать программу, которая всегда будет выцеливать уязвимые места противника в пределах видимости.

            • siziyman
              /#22213690

              можно написать программу, которая всегда будет выцеливать уязвимые места противника в пределах видимости.
              Вы-таки не поверите, но как бы вы ни делали популярную сетевую игру, если в ней в принципе можно читерить (а серверсайд хитрег вас не спасёт от читерства, совсем не спасёт), вам надо будет озаботиться античитом.

              • Tujh
                /#22213966

                Вопрос не в можно, всегда что-то можно. Вопрос в «сделать сложно и больно разработчикам читов».
                Ну а если сервер-сайд расчёты не помогают, то тогда и делать их не стоит, пусть всё считает клиент, правда ведь?

                • siziyman
                  /#22214004

                  Серверсайд-хитрег не всегда нравится и игрокам в том числе, это вполне буквально вопрос вкуса и конкретных ситуаций, возникающих в игре, прочих аспектов её не кода.


                  Ещё раз — в шутере разница между клиентсайд-хитрегом и серверсайд-хитрегом как раз совершенно несущественная для читеров — ну будут они попадать не 100% выстрелов, а 95-97% выстрелов, грубо говоря — и на разработку читов влияет примерно никак (найти в памяти или даже на экране модельку вообще не проблема — я знаю людей, которые делали POC чита-эймбота для шутера через распознавание изображения нейронкой), а на их эффективность, как я выше и сказал, минимально влияет. Разница между честным игроком и читером не станет из-за этого существенно меньше. Нужен нормальный античит.

                  • xsevenbeta
                    /#22216736

                    я знаю людей, которые делали POC чита-эймбота для шутера через распознавание изображения нейронкой

                    Давно интересовало — есть аппаратные устройства типа usb2kbd, которые имитируют клавиатуру и позволяют даже через сеть посылать движения мышкой/нажимание клавиш.

                    А какие есть аппаратные устройства дл перехвата монитора?

                    • cepera_ang
                      /#22216808

                      Что значит "для перехвата монитора"?

                    • iDm1
                      /#22216920

                      Во-первых проще захватывать сам экран или окно приложения программно на той же машине. Но если необходимо разделить, то есть карты захвата HDMI с path through. И это куда более распространенные потребительские устройства нежели usb2kbd.

                      • xsevenbeta
                        /#22216974

                        Во-первых проще захватывать сам экран или окно приложения программно на той же машине.

                        Если говорить о автоматизации в играх, то не желательно иметь процессы autoit или autohotkey, или питона который смотрит цвет пикселя на экране.

                        • sumanai
                          /#22217556

                          то не желательно иметь процессы autoit или autohotkey

                          Их очевидно переименуют.

                    • siziyman
                      /#22216924

                      Гм, а банальный сплиттер сигнала видеокарты — не оно? :)
                      А если мы говорим о софте, то фрейм буфер считать вроде не сложно, было бы желание.

                      • xsevenbeta
                        /#22216976

                        Гм, а банальный сплиттер сигнала видеокарты — не оно? :)

                        Видимо, оно и есть, спасибо :).

                      • xsevenbeta
                        /#22217464

                        Упс, нет, не то. Мне надо читать экран одного компьютера с другого компьютера. Пока приходит на ум только софт для удалённого управления.

                        • cepera_ang
                          /#22217582

                          HDMI граббер вы имеете в виду? Такие штуки как стримеры игр используют для трансляций?

                          • xsevenbeta
                            /#22217998

                            Да, уже нашёл. Всё банально и просто, спасиб.

            • printf
              /#22213816

              Да не соглашайтесь конечно, просто дайте ссылку на такую реализацию, чтобы на сервер отправляли смещение мышки, а оттуда прилетал угол поворота камеры. Потому что я такого не встречал, и мне правда интересно узнать что-то новое.

              • Tujh
                /#22213956

                Первое что вспоминается — все игры Wargaming с их «server side reticle», War Thunder использует (или использовал, давно не играл) немного другой алгоритм, но у них тоже положение прицела приходит(ло) с сервера.
                В BF3 тоже всегда отображалось положение прицела взятое с сервера, а не клиентское, но как там синхронизировалось — не разбирался, а потом и не играл уже.
                Много нареканий было на стрелялку в духе Сталкера (Сурвариум кажется), жалобы из серии «урон не прошёл» это было в каждом видео по этой игре именно из-за подобной схемы, когда сервер и клиент считали положение игроков и прицелы асинхронно.
                В целом если поискать по server-side reticle / crosshair можно найти много интересного.

                • printf
                  /#22214052

                  Спасибо! Почитаю, как это у кого реализовано.

                  Первое что нагуглевал — в WOT это по дефолту выключено, т.е. клиент все равно отображает свой прицел, а в момент выстрела берется серверный (и это вызывает фрустрацию у чуваков на форуме).

                  Интересно, конечно.

                  • siziyman
                    /#22214076

                    Кроме того, у WoT есть одна особенность, для нормальных шутеров не характерная — у танковой башни or whatever, в отличие от персонажа в среднем «обычном шутере», скорость вращения — лимитированная величина (и десинхронизация может быть ещё и в вопросе «а куда довращалась моя башня»). Оттого это куда нужнее, чем в среднем шутере.

                • siziyman
                  /#22214100

                  Первое что вспоминается — все игры Wargaming с их «server side reticle»
                  Эти игры — буквально единственное, что гуглится по «server side reticle/crosshair», ага. И там, в отличие от шутеров, невозможен ~моментальный разворот камеры/прицела на произвольный угол (потому что у танковой башни в WoT ограниченная скорость вращения, у персонажа в КСах, Апексах, Овервотчах и прочих Квейках — нет). И в обычных шутерах такое не используется, более того, банально неприменимо как раз потому, что фликшоты с разворотами на 90+ градусов являются допустимыми и у честных игроков. Серверсайд-хитрег используется, но про него я тоже написал в других комментариях.

                  • Tujh
                    /#22214218

                    Термин взят от туда, так как несколько лет назад активно и много играл именно в «танчики», возможно для других игр надо по другому запрос строить.

                    • siziyman
                      /#22214272

                      А возможно, в других играх его нет, потому что он просто неприменим. :)
                      Ну и да, в танках используется serverside reticle, а вот serverside crosshair ничего полезного не выдаёт в гугле, кроме тех же танков (а если отфильтровать их, остаются фанаты выживалок и симуляторов, спрашивающие, как на серверах отключить прицел ради реализма, а не что-то, имеющее отношение к дискуссии).

    • FreeNickname
      /#22214266

      Вот у LTT видео со сравнением прицеливания на 60/144/240 Hz (если не путаю). Оно спонсировано NVidia, но, во-первых, до этого у них было менее масштабное видео без спонсорства NVidia, а во-вторых, политике LTT в отношении спонсорства я доверяю.

      TL;DR:
      1. Высокая частота очень сильно влияет на прицеливание.
      2. Разница 60/144, естественно, более заметна, чем 144/240.
      3. Чем хуже вы играете, тем больше прирост.

      www.youtube.com/watch?v=OX31kZbAXsA

  6. cepera_ang
    /#22209400

    То есть ажиотаж не потому, что нвидия перед запуском успела произвести всего тысячу новых видеокарточек, которые в два раза быстрее/в два раза дешевле при той же производительности, а потому что разработчики игр криворукие?

    Но игры всегда работали медленно на текущем железе и «стабильные 60гц» не от балды появились как показатель, а скорее как «дайте хотя бы 60гц на топовом железе». А то, что внезапно случился прогресс в мониторах, да ещё и внезапно все стали чувствительны к разного рода задержкам (см. VR и киберспорт) и теперь внезапно «стало стандартом» 144гц или сколько там — это не обязательно значит, что разработчики криворукие, просто потребности потребителей поменялись быстрее, чем идёт разработка. Да и в конце концов, «патчи производительности в драйверах» это может быть как «мы исправили скорость работы этих криворуких геймдизайнеров», так и «криворукая нвидия до этого рендерила вполне нормальный кадр через жопу и медленно».

    Для вычислений и науки у Nvidia давно есть карты серии Tesla V100 и Tesla A100.

    И пассаж про ГПУ для датацентров и нейросеточек — мы тоже ждём и раскупаем эти 3080/3090, кто в здравом уме будет мечтать о карточках в десять раз дороже, просто потому что они «серверные»? Хз, что там за сравнение с интелом, но серверные теслы уже десять лет как стоят в серверах за свои 10к$, а «геймерские» карточки имеют практически такую же производительность на многих задачах и массово покупаются мамкиными датасайнтистами — этот аспект совершенно не изменился в этом поколении, вообще.

    • Immortal_pony
      /#22210480

      Я не могу понять, почему прогресс произошел ВНЕЗАПНО? Ещё в начале 2000х на ЭЛТ- мониторах во все шутеры играли на 100+ ФПС и прекрасно движки HL, Q3 и UT с этим справлялись даже не на топором железе. За 20+ лет ничего не изменилось — во все сетевые шутеры по-прежнему играют на 100+фпс, а для разработчиков таикх игр это слато откровением?

      • Dvlbug
        /#22210844

        Я представил себе, как сижу перед 34-дюймовым 4k ЭЛТ-монитором, укрывшись свинцовым пледиком.

        • ZekaVasch
          /#22211156

          Пледиком надо укрываться сидя не перед ним а за ним. Туда защиту не ставили

          • Paskin
            /#22212422

            Электронная пушка направлена в сторону экрана, отраженное назад от маски/люминофора излучение на правильно настроенном мониторе очень мало.

            • RA-NGR
              /#22213140

              Ну и средний пробег электрона в воздухе около 15 см, насколько помню..

              • balamutang
                /#22213782

                При торможении электрона о маску выделяются фотоны, на 25кВ это уже рентген.
                Он может как пойти вперед и быть заметно поглощенным защитой в экране кинескопа, так и отразиться в сторону, где такой защиты нет

      • cepera_ang
        /#22211420

        Просто «все сетевые шутеры» — это далеко не исчерпывающее множество игр и игроков. А на ЭЛТ играли как раз 20 лет назад, а потом был катастрофический регресс в этой области на долгие годы, когда 60гц лсд панели заполонили рынок по причине других преимуществ. Сейчас мы живём в эпоху возрождения интереса к быстрому выводу изображения (в основном благодаря хардкорным геймерам в шутеры, да, спасибо им за это).

      • printf
        /#22212316

        Для некоторых и 60 Гц откровение, вон Мафия 3 вышла в 2016 году залоченная на 30 фпс. Позднее нестерпимый жар от седалищного воспламенения геймеров заставил разработчиков из Hangar 13 выпустить патч, но сам факт. Еще бы на 24 залочили.

  7. Sasha5a
    /#22209504

    Не согласен со статьей что 60 ФПС являются стандартом. 30 ФПС до сих пор используется в консолях.

    Пример apex legends и call of duty warzone в качестве плохо оптимизированной игры некорректно, это одни из самых хороший оптимизированных игр с точки производительности (не считая качество серверов и вылеты warzone). Apex выглядит намного лучше чем 5-ти летний titanfall 2, и работает тоже очень хорошо. В call of duty каждые 3 месяца графику ухудшают, за счет чего растет фпс, хотя игра выглядит заметно хуже чем на момент выхода, но работает получше.

    144 hz нужно только заядлым геймерам или для тех кто играет в киберспортивные игры на победу. В остальном 60 hz вполне хватает.

    Единственно исключение в этом году это doom ethernal — игра является одной из самых красивых на текущий момент, но при этом выдает спокойно более 100 кадров на средних машинах, загрузка с контрольной точки происходит за 5 секунд(в других играх это может быть и 30 и 60 секунд) на HDD, и игру уже запускали в 1000 фпс. Не уверен что существует другая игра которая поддерживает 1000 фпс.

    • solver
      /#22210224

      144 hz нужно только заядлым геймерам или для тех кто играет в киберспортивные игры на победу. В остальном 60 hz вполне хватает.

      Звучит как BMW и Mercedes нужны только заядлым гонщикам и тем кто на работу опаздывает, остальным хватит и ВАЗ 2106.
      В общем это вот ваше "хватит", у всех разное. И многим хочется комфорта вне зависимости от профессии. Я вот ни разу не гонщик и даже не профессиональный водитель, но предпочту ездить на BMW, а не на ВАЗ-2106, которого (если судить по вашему) вполне хватит ездить на работу...

      • mistergrim
        /#22210248

        А зачем вы 60 fps с ВАЗ-2106 сравниваете?

        • solver
          /#22210598 / -1

          Затем, что когда-то давно ездил на 2106 и мне было "вполне хватит", а потом поездил на более хорошей машине и 2106 стало уже "не очень".
          Тоже самое и здесь, разница не только в скорости, но и в комфорте.
          144 даже в обычной работе за компом заметно комфортнее.
          Но конечно же будет толпа людей утверждающих, что и 60 хватает для всего)
          Как и раньше была толпа утверждающая, что SSD нужен только серверам для скорости, а дома и на HDD хорошо. И т.д. и т.п.

          • mistergrim
            /#22210770

            А между «шестёркой» и бэхой для вас ничего не существует?

            • solver
              /#22210870

              Очень глупо троилите.
              Это просто пример.

      • Arty_Fact
        /#22210506 / +2

        Звучит как 360 км в час нужны автогонщикам, а остальным и 60 хватит. ;)

    • Immortal_pony
      /#22210500

      Пример apex legends и call of duty warzone в качестве плохо оптимизированной игры некорректно, это одни из самых хороший оптимизированных игр с точки производительности (не считая качество серверов и вылеты warzone)
      То есть постоянные лаги, телепорты, дропы ФПС на топовом железе при минимальных настройках — это для вас "хорошо оптимизированная игра"? Почему?
      Если вы хотите пример хорошей оптимизации — посмотримте на Overwatch. Он ухитряется выдавать 60fps даже на видеокарте 740M (мобильной, Карл!), а на 1070 на medium 200+
      Apex в это время на 1070 даёт едва ли 100 на минималках

      • olhapi
        /#22211122

        На счёт Apex вы ошибаетесь. Играю год на gtx 970. На почти максималках 60 кадров спокойно выдает. На средне — высоких 100+.

        • Immortal_pony
          /#22215504

          Ну я по своему опыту сужу :)
          Если на 1070 поставить medium, то ~90фпс + будут дропы до 60фпс
          Если на 1070 поставить low, то будет ~105фпс + будут дропы до 80


          1080 немного лучше, но тенденция аналогичная.
          И 120фпс невозможно выжать даже на минималках (в принципе, не говоря уж о налчии дропов)

    • siziyman
      /#22213596

      100+fps на 144-герцовом мониторе создают совершенно другой опыт даже от несоревновательных игр с хорошей картинкой. Прям невероятно другой.

    • DoubleW
      /#22217658

      Apex выглядит намного лучше чем 5-ти летний titanfall 2

      При этом гораздо жорливее чем фортнайт, на сравнимых настройках детализации

  8. novice2001
    /#22209660 / +2

    Я не знаю, как бы написать помягче, чтобы не наловить еще минусов в карму.
    Статейка написана с точки зрения какого-то ничтожного меньшинства игроков, которое «уже давно» играет на мониторах с частотой 144, а то и 240 Гц и жаждет отдать кучу денег за топовое железо.
    Подавляющее большинство игроков, будем откровенны, устраивает 60 FPS. Я уже не говорю про пользователей консолей.
    Я сильно сомневаюсь, что в двойном слепом тесте поклонники экстремальных фреймрейтов отличат 100 FPS от 200.

    • intelligentpotato
      /#22209980

      Не могу сказать ничего про FPS, однако, отличие 144 Гц от 60 Гц просто колоссальное, и даже не столько в играх, сколько в простом сёрфинге. У меня как-то монитор свалился из 144 в 60, и я долго не мог понять, от чего же мне так больно. Гостинг текста при прокрутке на 60 Гц просто сумасшедший.

    • trixy
      /#22210976

      а 24 и 60 отличат или сомневаетесь?

    • sa1ntik
      /#22212234

      Я сильно сомневаюсь, что в двойном слепом тесте поклонники экстремальных фреймрейтов отличат 100 FPS от 200.

      На самом деле не зря сомневаетесь.
      Если быть максимально точным, то наше зрение не работает в «кадрах в секунду». Это аналоговая система, которая очень упрощенно состоит из двух компонентов: глаза и мозг.
      Глаза сбрасывают информацию в мозг по «наполнению» палочек и колбочек, мозг эту информацию анализирует и обрабатывает.
      Предельная частота кадров, которые мы способны различить и распознать ограничивается двумя вещами:
      1) Характеристиками картинки.
      2) Характеристиками мозга.
      Если картинка статичная или с крайне медленным движением — ожидаемо, что разницы между 30/60/144/220 Герцами никакой не будет. А вот со вторым пунктом уже чуть сложнее: система аналоговая, если что-то не успело обработаться целиком — оно может обработаться частично и очень упрощённо. Поэтому, в случае типичного человека 80-140 Герц это та максимальная частота кадров в секунду, на которых он может отчётливо различать движение (то есть полностью обрабатывать картинку). Но при этом некоторые люди испытывают дискомфорт от работы с теми же самыми OLED-дисплеями на низких уровнях подсветки и с «медленным» ШИМ. Всё дело в том, что хоть мозг, обычно, не способен полностью обрабатывать смену картинки с частотой выше 140 Герц; но глаз то способен скидывать эту информацию значительно чаще. В итоге мозг перенапрягается в попытке переварить вот это всё, не справляется, скипает и получается дискомфорт выходным сигналом. Глаза же начинают скипать информацию начиная с 1 кГц.
      Поэтому лично у меня есть предположение, что единственным способом в слепом тесте определить где 120 Гц, а где 240 Гц (отбросив влияние ШИМ подсветки, если он есть) является возможное появление чувства дискомфорта на более высокогерцовом мониторе.

      • cepera_ang
        /#22212290

        Вы имеете в виду пропадание чувства дискомфорта на высокогерцовом мониторе?

        • sa1ntik
          /#22212486

          Вы имеете в виду пропадание чувства дискомфорта на высокогерцовом мониторе?

          Нет, я максимально чётко обозначил границу, на которой мозг может полностью обрабатывать сменяющиеся кадры: 140, ну 150 Герц. Всё что находится выше уже не может полноценно обрабатываться мозгом и потенциально может вызывать дискомфорт. Именно по этой причине у некоторых людей вызывают дискомфорт OLED дисплеи с 200Гц ШИМом подсветки.
          Поэтому он после 140 Гц может появиться, а пропасть лишь на 1 кГц, так как именно выше этой частоты пасуют уже глаза.

          • cepera_ang
            /#22213042

            Так всё наоборот, дискомфорт появляется от слишком медленного обновления. Чем быстрее обновление, тем выше плавность и ближе картинка к реальной жизни. И 240 фпс и 240 гц ШИМ — это совершенно разные вещи, а ШИМ на 60Гц был бы просто настолько очевидно невыносим, что никто в здравом уме его не стал бы делать.


            Смотрите, обновление кадров на 240гц экране выглядит так (~40мс таймлайн, каждый символ — одна миллисекунда, разные символы — разный цвет пикселя)


            \\\\||||////!!!!----\\\\||||////====....


            ШИМ 240гц же будет выглядеть так (. — черный экран, | — полная яркость, те же 40мс):


            ...|...|...|...|...|...|...|...|...|...|


            Вот эти пробелы и создают неприятное ощущение и не потому, что глаз что-то передает, а потому что при движении глазами или такого предмета в поле зрения он разваливается на отдельные "скриншоты" и чувствительным людям это доставляет неприятные ощущения, дискомфорт, тошноту и утомление.


            А способ отличить более высокие герцы в том, что движущийся объект на высокой частоте кадров будет сохранять чёткость и будет больше похож на объект в реальном мире — меньше блюра, меньше скачки между отдельными кадрами, как здесь: https://www.testufo.com/framerates#count=3&background=stars&pps=960

            • sa1ntik
              /#22213534

              Так всё наоборот, дискомфорт появляется от слишком медленного обновления.

              Нет, не так. Если у вас будет слишком медленное обновление, то начиная с определённого порога кадров в секунду мозг будет рассматривать это как набор картинок, а не непрерывное изображение. Ну и плюс от лагов, фризов и плавающей частоты будет дискомфорт у геймера, но это по другому каналу.
              И 240 фпс и 240 гц ШИМ — это совершенно разные вещи

              Ну да, совершенно верно. Одно это частота кадров в секунду (или скорость в футах в секунду), а другое это широтно-импульсная модуляция.
              а ШИМ на 60Гц был бы просто настолько очевидно невыносим, что никто в здравом уме его не стал бы делать.

              Как вам сказать… Лампы накаливания, например. Мерцание там компенсируется инерцией спирали накаливания. Электролюминисцентные лампы из-за выпрямителя работают на 100 Гц, например.
              ШИМ 240гц же будет выглядеть так

              Кажется, вы не очень ясно себе представляете что такое ШИМ. Вы сейчас показали пример для 25% яркости экрана. Так сильно уменьшать подсветку ШИМом явно никто не будет.
              а потому что при движении глазами или такого предмета в поле зрения он разваливается на отдельные «скриншоты» и чувствительным людям это доставляет неприятные ощущения, дискомфорт, тошноту и утомление.

              Не разваливается он на отдельные скриншоты. Мозг по прежнему формирует единую картинку из движения, но при этом не может полноценно обработать моменты с выключенной подсветкой, в итоге перенапрягается и начинает вырабатывать выходной сигнал «дискомфорт». Потому что глаза это мерцание заметить могут.
              А способ отличить более высокие герцы в том, что движущийся объект на высокой частоте кадров будет сохранять чёткость и будет больше похож на объект в реальном мире — меньше блюра, меньше скачки между отдельными кадрами, как здесь:

              Я выше уже сказал: мозг (по крайней мере обычного человека) не будет способен в полной мере обрабатывать картинку с частотой выше 140 Гц. Поэтому всё то, что выше 140 Гц с точки зрения восприятия именно целостности будет неотличимо.

              • andreymal
                /#22213632

                Вы сейчас показали пример для 25% яркости экрана. Так сильно уменьшать подсветку ШИМом явно никто не будет.

                Я на своём ноутбуке примерно такую яркость и держал — если больше, то глазам уже слишком ярко. И таки да, через фотики был отчётливо виден 300Гц ШИМ

                • sa1ntik
                  /#22213778

                  Я на своём ноутбуке примерно такую яркость и держал — если больше, то глазам уже слишком ярко.

                  Если честно, то я не видел пока таких ноутбуков у которых минимальная яркость была бы именно на 25%. Хотя я может и упустил, но в лучшем случае это одна треть от максимальной.
                  И таки да, через фотики был отчётливо виден 300Гц ШИМ

                  Как определили? :)

                  • andreymal
                    /#22213838

                    в лучшем случае это одна треть от максимальной.

                    Ну, я точных замеров яркости не проводил, но по ощущениям минимально возможная яркость у моего ноута ну очень тёмная — даже ночью в полностью тёмной комнате трудно что-то разглядеть (а выставление нулевой яркости выключает подсветку полностью)


                    Как определили? :)

                    Ставим достаточную выдержку (1/50 или типа того), рисуем на экране белую линию на чёрном фоне и фоткаем её, одновременно двигая фотик поперёк линии. Если ШИМ отсутствует, то получится сплошная размазня; если ШИМ есть — получится несколько чётких копий линии (насколько чётких, зависит от уровня яркости). Сравнив число получившихся линий с выдержкой фотика и сделав несколько фоток для уменьшения погрешности, можно примерно прикинуть частоту


                    (Здесь мог быть спойлер с примером такой фотки, но мой HDD с фотками сдох, фотика под рукой прямо сейчас нет, а на телефон сфоткать не получается по причине его кривости, эх)

                    • sa1ntik
                      /#22213896

                      Ну, я точных замеров яркости не проводил, но по ощущениям минимально возможная яркость у моего ноута ну очень тёмная — даже ночью в полностью тёмной комнате трудно что-то разглядеть (а выставление нулевой яркости выключает подсветку полностью)

                      Ну да, нулевая яркость иногда отключает подсветку полностью, но без промежуточных шагов. Но в целом ок, я вас понял. Погуглил и правда есть ноуты у которых минимальная яркость — четверть от максимальной.
                      Ставим достаточную выдержку (1/50 или типа того),

                      Не, всё ок. Просто я видел как люди пытались определить частоту ШИМа подсветки с помощью «включаем камеру на телефоне и смотрим в дисплей» :)

              • cepera_ang
                /#22213780

                Если у вас будет слишком медленное обновление, то начиная с определённого порога кадров в секунду мозг будет рассматривать это как набор картинок, а не непрерывное изображение.

                Да и эти пороги изучены ещё со времен немого кино и (внезапно) мозг воспринимает как движущуюся картинку уже начиная от 12-16 кадров, а устаканившийся стандарт в кино 24к/с был чуть ли не избыточным хай фиделити поначалу :)


                Как вам сказать… Лампы накаливания, например. Мерцание там компенсируется инерцией спирали накаливания.

                И какое это отношение имеет к современным проблемам с ШИМом, где пробелы ничем не компенсируются и поэтому-то и стали заметны глазом и мешать?


                Кажется, вы не очень ясно себе представляете что такое ШИМ. Вы сейчас показали пример для 25% яркости экрана. Так сильно уменьшать подсветку ШИМом явно никто не будет.

                А как по-вашему уменьшается яркость подсветки в современных устройствах с ШИМом? И для проверки корректности вашей интуиции о происходящем — какой по-вашему диапазон регулирово яркости в современных девайсах? Отношение минимальной яркости (чтение в темноте) и максимальной (щуримся под солнцем)? Варианты: 1:4, 1:10, 1:20, 1:50, 1:100, 1:1000, 1:1000000?


                Не разваливается он на отдельные скриншоты.
                Пожалуйста, не рассказывайте мне, что именно я вижу :)

                Я выше уже сказал: мозг (по крайней мере обычного человека) не будет способен в полной мере обрабатывать картинку с частотой выше 140 Гц. Поэтому всё то, что выше 140 Гц с точки зрения восприятия именно целостности будет неотличимо.

                Нет никакой "полной меры обработки картинки" в мозгу, на разной частоте кадров экраном будут просто воспроизводиться разные изображения из-за разницы в блюре, разницы в положениях объектов на экране и т.д. и это всё будет прекрасно видно, потому что в реальном мире никакой дискретности нет. Почитайте уже какую-нибудь существующую теорию по вопросу, прежде чем придумывать свои предположения про разделение обработки в глазах и мозгах и процессинг в "кадрах в секунду"

                • sa1ntik
                  /#22217340

                  Да и эти пороги изучены ещё со времен немого кино и (внезапно) мозг воспринимает как движущуюся картинку уже начиная от 12-16 кадров

                  Вообще это связано в том числе с расходом плёнки на минуту/час.
                  а устаканившийся стандарт в кино 24к/с был чуть ли не избыточным хай фиделити поначалу

                  Эррм, не хотелось бы расстраивать, но увеличение частоты кадров в звуковом кино после немого было связано с необходимостью писать звук.
                  А стандарт в 24 к/с был выбран исходя из опять же расхода плёнки.
                  Частоты телевизионных картинок 25/30 к/с вообще связаны с частотой сети.
                  И какое это отношение имеет к современным проблемам с ШИМом, где пробелы ничем не компенсируются и поэтому-то и стали заметны глазом и мешать?

                  А чем оно компенсируется в «энергосберегайках»? :)
                  А как по-вашему уменьшается яркость подсветки в современных устройствах с ШИМом?

                  Так же как и в любом другом устройстве — скважностью.
                  какой по-вашему диапазон регулирово яркости в современных девайсах

                  Зависит в том числе и от ШИМа, так как производители прекрасно понимают эту проблему.
                  Нет никакой «полной меры обработки картинки» в мозгу

                  Ну нет так нет.
                  это всё будет прекрасно видно

                  То есть ШИМ не видно, а всё остальное прекрасно видно? Ну ок.
                  реальном мире никакой дискретности нет.

                  Собственно я про это и говорил.
                  Почитайте уже какую-нибудь существующую теорию по вопросу, прежде чем придумывать свои предположения про разделение обработки в глазах и мозгах и процессинг в «кадрах в секунду»

                  В том то и проблема, что как раз я читал. При этом эта теория никак не была связана со 100500 герцовыми мониторами. И даже сейчас эти исследования тоже есть, можете ознакомиться, но будете разочарованы.
                  процессинг в «кадрах в секунду»

                  Самое что смешное — именно в этом и измеряют в этих исследованиях. Или в герцах. Или в миллисекундах. Потому что в любом случае физически это всё сводится к «способен ли мозг обработать все изменения за отведённое время».
                  Результат один: если нечто, что мы видим, длится менее N миллисекунд — мы не способны это распознать целиком. И даже заметить.
                  P.s. я вам тут ещё пищи для размышления подброшу: в среднем в человеческой популяции не видят и не различают картинки короче 20 мс. Таким образом для многих людей хватит порядка 45 кадров в секунду. А 60 так вообще за глаза doi: 10.3758/APP.71.4.860

                  • cepera_ang
                    /#22217570 / +1

                    А чем оно компенсируется в «энергосберегайках»? :)

                    Поэтому они и либо ужасно мерцают и это прекрасно видно чувствительным людям, либо используют нормальные драйверы, совсем без ШИМа (или на очень высоких частотах в килогерцы)


                    Зависит в том числе и от ШИМа, так как производители прекрасно понимают эту проблему.

                    Так какой-же диапазон регулировки? Какая максимальная скважность?


                    То есть ШИМ не видно, а всё остальное прекрасно видно? Ну ок.

                    Кадры как отдельную сущность не видно, но итоговое движущееся изображение отличается при разной частоте кадров и это видно глазом.


                    Результат один: если нечто, что мы видим, длится менее N миллисекунд — мы не способны это распознать целиком. И даже заметить.

                    в среднем в человеческой популяции не видят и не различают картинки короче 20 мс

                    Т.е. глазом вот такую картинку увидеть невозможно и курсор мыши вообще должен становиться невидимым при движении, ведь даже на 60гц он отображается в каждой позиции всего на 16мс. Более того, при скроллинге текста он получается должен тоже исчезать для нашего зрения, так получается? Ведь каждая отдельная картинка отрисовывается меньше 20мс.
                    image


                    doi: 10.3758/APP.71.4.860

                    Можете дать обзор в двух словах, что именно в этой статье измеряют и обнаруживают?

                    • sa1ntik
                      /#22217666

                      Можете дать обзор в двух словах, что именно в этой статье измеряют и обнаруживают?

                      Серьёзно? То есть вы мне рассказываете что я не читал научные статьи по теме и при этом просите меня кратко пересказать содержимое этой статьи?
                      Т.е. глазом вот такую картинку увидеть невозможно и курсор мыши вообще должен становиться невидимым при движении, ведь даже на 60гц он отображается в каждой позиции всего на 16мс.

                      Нет, не так. Просто в обработанном изображении курсор будет где-то в среднем положении на этих кадрах. Как повезёт.
                      Но если при этом перемещении взять и вообще убрать курсор мышки (и даже выключить экран) на время менее 13 мс — средний представитель человеческой популяции не заметит потери бойца.
                      Но если вы будете дёргать мышкой слишком быстро — начиная с определённой скорости её и правда можно будет не заметить. Такие дела :(
                      Поэтому то я и крайне скептически отношусь к тому, что кто-нибудь из тут присутствующих будет в силах правильно выбрать между 144 и 220 Гц монитором в двойных слепых тестированиях.
                      Если это не пилот истребительной авиации, правда. Некоторые из них по результатам уже других тестирований, могут замечать, отображать и адекватно обрабатывать в том числе и объекты и картинки на времена вплоть до 2мс.

                      • cepera_ang
                        /#22217966

                        Серьёзно? То есть вы мне рассказываете что я не читал научные статьи по теме и при этом просите меня кратко пересказать содержимое этой статьи?

                        Конечно, вы кидаете одну статью из миллиона в области человеческого восприятия и ожидаете, что я потрачу полчаса-час на то, чтобы её прочитать, разобраться с методологией, разобрать что именно и зачем они измеряют и с чем сравнивают и разумная ли у них методика и имеет ли это отношение к нашему разговору, но при этом сами даже не готовы в двух предложениях описать, что именно вы в этой статье прочитали и какое ваше утверждение каким образом она подтверждает? Если это ваши правила ведения спора, то вот пожалуйста: https://pubmed.ncbi.nlm.nih.gov/ на этом сайте написано, что я прав, докажите обратное.

                        • sa1ntik
                          /#22218294

                          что я прав

                          Ну ок.
                          Единственное принципиальное отличие «недостаточной плавности картинка на 144 Гц» от «бескислородная медь улучшает качество звука» в том, что в мире действительно есть исчезающе малый процент людей, которые могут заметить разницу между 144 и 220 Гц.
                          О чём я и написал чуть выше)
                          Но если бы вы действительно читали хоть какие-то исследования, то скорее всего бы знали что в качестве единиц измерения там применяются FPS/Hz/время. Потому что это легко конвертируемые друг в друга величины.

                          • Chamie
                            /#22219244

                            есть исчезающе малый процент людей, которые могут заметить разницу между 144 и 220 Гц.
                            Если у вас есть под рукой 144Гц монитор, то попробуйте поделать быстро горизонтальную «восьмёрку» курсором на белом фоне. Если я не попал случайно в этот самый «исчезающие малый процент», то и вы увидите довольно чётко отдельные положения курсора.

                  • SinsI
                    /#22218406 / +1

                    я вам тут ещё пищи для размышления подброшу: в среднем в человеческой популяции не видят и не различают картинки короче 20 мс
                    Посиди несколько минут в тёмной комнате, после чего включи на 1мс в ней свет. Будешь сильно удивлён результатом.

                    У человека — аналоговое зрение, и оно вполне способно различать даже отдельные фотоны.

                    • cepera_ang
                      /#22218492 / +1

                      Да что там вспышки 1мс, люди видят стробоскопический эффект ШИМа до 10кГц, но нет, оказывается в мозгу какой-то есть по-кадровый процессинг, который ограничивает восприятие картинок до 20мс :)


                      image

                      • sa1ntik
                        /#22221402

                        Да что там вспышки 1мс, люди видят стробоскопический эффект ШИМа до 10кГц, но нет, оказывается в мозгу какой-то есть по-кадровый процессинг, который ограничивает восприятие картинок до 20мс :)

                        Р — релевантность.
                        Непонятно какая группа людей непонятно какого возраста видела/осознавала (а это точно научное исследование?) мерцание натриевой газоразрядной лампы высокого давления мощностью 250 Вт с вероятностью 0...20% :)

                    • sa1ntik
                      /#22221406

                      даже отдельные фотоны.

                      Ух, надо срочно останавливать разработку приборов ночного видения, тем более там прогресс уже достаточно давно встал)

      • gene4000
        /#22212332

        Большая зависимость от углового размера изображения (от размера экрана). Чем больше экран, тем лучше видна прерывистость движения.

        • sa1ntik
          /#22212504

          Большая зависимость от углового размера изображения (от размера экрана). Чем больше экран, тем лучше видна прерывистость движения.

          Угловой размер изображения и размер экрана это таки две разные величины. Связаны они будут лишь при неизменном расстоянии до монитора (что, к слову, тоже может быть не очень физиологично и вызывать дискомфорт).
          Но вы в данном случае говорите о переферийном зрении (для которого важен как раз таки угловой размер), которое и правда может работать чуть быстрее основного поля, так как там и так часть информации скипается мозгом на «дефолтных настройках». Но работать это будет лишь на участках работы периферийного зрения.

          • cepera_ang
            /#22213056

            Связаны они будут лишь при неизменном расстоянии до монитора
            А смысл покупать монитор побольше, и ставить его подальше, оставляя тот же угловой размер? Люди вольны конечно так делать, но всё же кажется, что многие покупают мониторы больше, чтобы получить большую площадь (и я в их числе)

            • sa1ntik
              /#22213558

              А смысл покупать монитор побольше, и ставить его подальше, оставляя тот же угловой размер? Люди вольны конечно так делать, но всё же кажется, что многие покупают мониторы больше, чтобы получить большую площадь (и я в их числе)

              Чтобы вместить на них больший объём информации(большая площадь же). Или чтобы увеличить комфортное расстояние для просмотра. Или чтобы уменьшить вертикальные/горизонтальные прокрутики.
              То есть чтобы увеличить физические размеры или сохранить угловые.

              • cepera_ang
                /#22213796

                Если купить побольше, поставить подальше, сохранив угловой размер — то почему будет больше информации входить?

                • sa1ntik
                  /#22217128

                  Если купить побольше, поставить подальше, сохранив угловой размер — то почему будет больше информации входить?

                  В моём случае потому что теперь текст и окна там масштабируется не за счёт рендеринга в более высоком разрешении с последующим даунскэйлом и выводом в штатное разрешение монитора; а рендеринг в штатном и вывод в штатном.
                  Ну и как бы «из коробки» у винды нет варианта рендерить в масштабе, меньшем чем 100%.
                  Ну и да: рендерить в большем разрешении, а потом даунскэйлить до меньшего это в любом случае ущерб резкости.

                  • cepera_ang
                    /#22217210 / +1

                    Т.е. вы в конечном итоге просто уменьшили элементы интерфейса и размер текста, а то, что новый монитор больше и стоит дальше — это такой physics based даунсемплинг просто? :)

                    • sa1ntik
                      /#22217476

                      Т.е. вы в конечном итоге просто уменьшили элементы интерфейса и размер текста, а то, что новый монитор больше и стоит дальше — это такой physics based даунсемплинг просто? :)

                      Ну типа того, да. С рендерингом и отображением в нативном разрешении.
                      Именно для этого и покупался большой монитор в этом случае.

                      • cepera_ang
                        /#22217594

                        Не обессудьте, но кажется, что это какой-то редкий случай среди причин покупки мониторов большего размера :)

          • gene4000
            /#22213914

            Угловой размер изображения и размер экрана это таки две разные величины — Верно. Связаны они будут лишь при неизменном расстоянии до монитора — Не верно. Я не знаю, вроде бы очевидная вещь: чем дальше объект, тем меньше его угловой размер. Они ВСЕГДА связаны, связь прямая: дальше объект, меньше его угловой размер. Вы, видимо, хотите сказать, что размер объекта и его угловой размер меняются произвольно при изменении расстояния? Я не знаю, как это работает в вашей голове, но речь не об этом.
            Важно, что большой и маленький монитор на одинаковом расстоянии потребуют разной частоты обновления изображения для создания одинакового восприятия движущихся изображений. Чем больше изображение, тем больше будет расстояние между точками отображения объекта, который «движется» по экрану. На экране смартфона кино в 24 к/с выглядит более плавным, чем на пятидесятидюймовом телевизоре. Поэтому, в частности, пришлось придумывать «уплавнители» картинки.

            • sa1ntik
              /#22213970

              . Вы, видимо, хотите сказать, что размер объекта и его угловой размер меняются произвольно при изменении расстояния? Я не знаю, как это работает в вашей голове, но речь не об этом.

              Элементарно работает. Увеличивая размер объекта и отодвигая его, мы сохраняем его угловой размер неизменным. Увеличивая размер объекта и не перемещая его мы увеличиваем его угловые размеры. Не трогая размер объекта и пододвигая его мы увеличиваем его угловые размеры.
              Именно об этом я и написал.
              Важно, что большой и маленький монитор на одинаковом расстоянии потребуют разной частоты обновления изображения для создания одинакового восприятия движущихся изображений.

              Нет не потребуют, пока не будет задействовано периферийное зрение.
              На экране смартфона кино в 24 к/с выглядит более плавным, чем на пятидесятидюймовом телевизоре.

              Зависит от угловых размеров и того и другого. Но в общем случае нет.
              Поэтому, в частности, пришлось придумывать «уплавнители» картинки.

              «Уплавнители» картинки появились как следствие желание получить 100500 кадров в секунду при непонимании матчасти. Ну то есть в следствие маркетинговых запросов.

    • GrigoryPerepechko
      /#22213356

      Ещё автор забывает упомянуть о цветопередаче этих быстрых мониторов.

  9. AllexIn
    /#22209672 / +3

    Разработчики идоты, потому что не могут осилить 144 герца В 4К. Вот тупорылые уроды. *сарказм*.
    А то что у нас там 8 миллионов пикселей рендер которых надо уместить в 0.007 секунды — это пофиг. И 8 миллионов если у нас идеально отработал клиппинг. А клиппинг у нас тоже в эти 0.007 секунды входит.
    Ну да, ну да. Это разработчики тупые уроды, а не пользователи охренели со своими запросами.

    UPD: Ну и в целом автор несет ахинею.
    Причина дефицита не в том, что все хотят карты. А в том что их нет.
    В Россию всех типов 3080 на момент старта продаж завезли 110 штук. НА ВСЮ РОССИЮ.
    Вот вам причина дефицита.

    • cepera_ang
      /#22209886

      Ладно 8 миллионов пикселей, так эти игроки ещё 16x FSAA какой-нибудь хотят, так что каждый пиксель нужно ещё и не один раз отрендерить :)

    • Alexsey
      /#22209940 / +1

      Причина дефицита не в том, что все хотят карты. А в том что их нет.
      В Россию всех типов 3080 на момент старта продаж завезли 110 штук. НА ВСЮ РОССИЮ.

      У меня тут есть скриншот из одного норвежского магазина, весьма показательно
      image

    • olhapi
      /#22211142

      Согласен, но с разработчиков тоже не стоит снимать вину. За последние годы состояние игр которые релизят сильно отличается (в худшую сторону) от того что было раньше. Считается нормальным релизить сырую игру, а потом выпускать патч за патчем чтобы фиксить баги, которые должны были быть пофикшены до релиза.

      • AllexIn
        /#22211746

        Тут я с вами спорить не могу. Но забагованность игр и спрос на карты — вещи малосвязанные.

      • JediPhilosopher
        /#22214306 / +1

        Ой да ладно. Помнится, я такое нытье читал уже в Game.EXE образца 2001 года. Собственно как только появилась техническая возможность делать и сравнительно легко доставлять патчи пользователям, так и пошла эта тема с патчингом того, что не успели сделать до релиза.

    • speshuric
      /#22223802

      К тому же сейчас (за последние 20 лет) сильно изменился способ продажи игр. Когда продажи были дисками, то после выхода диска уже ничего не исправить (а издатели и тогда хотели "вчера" и "побольше" — это не изменилось). То есть не было ни финансовой мотивации сделать еще лучше, ни, собственно, вменяемого канала доставки до игрока. Ну и, соответственно, исправлялось только в ОЧЕНЬ удачных играх. Сейчас часто носителя нет совсем, а игры так или иначе приносят доход не только в момент установки, да даже если не приносят деньги, то патч не будет стоить производства нового тиража. Поэтому новые версии технически можно клепать хоть раз в неделю.
      Да, так при выпуске игры можно пойти разумные на компромиссы по производительности, но можно и починить их, если будет пользователь. Грань здесь достаточно тонкая, конечно, но того кошмарного "выпустили DVD, защитили от копирования, продали, а там критическая ошибка в конце игры" — этого теперь нет.

  10. homm
    /#22209728 / +1

    Ах эти косорукие разработчики игр. Пишут эти игры своими косорукими руками. А вот не писали бы — не было бы ажиотажа, нормально бы все было.


    Давно такого бреда не читал.

  11. Angmarets
    /#22209734

    Вот, последние годы от презентации к презентации мелькают Fortnite, Call of Duty, Battlefield, Apex Legends, Control — короче, все те игры, которые на максимальных настройках графики делают видеокарте больно

    простите, что?
    Fortnite, Apex Legends — чистый мультиплеер с батлроялем. Их никто не будет делать так чтоб они делали видеокарте больно. Их цель — нормально работать на как можно большем числе машин. Фортнайт это вообще мультик, он на встроеной видяхе должен на ультрах идти
    Call of Duty, Battlefield — понятия не имею. Но если судить по видосам на ютубе, больно пятая батла делает только глазам игроков.
    Control — вообще коридорные побегушки в закрытых помещениях, чему там болеть? Чай не опенворлд на пару километров отрисовать.

    • Nalivai
      /#22209884 / +1

      В Сontrol чертовское количество всякой движущейся лабуды, прям очень

    • Alexsey
      /#22209952

      Выше уже написали что в Control просто дикое количество всего в кадре. Плюс рейтрейсинг там нагибает карту просто дико так как очень много отражающих поверхностей как раз из-за побегушек в закрытых помещениях. По сути Control — первая игра, которая изначально разрабатывалась с учетом рейтрейсинга.

      • Angmarets
        /#22210170

        хорошо, с контролом убедили, был не прав.

    • retar
      /#22210132

      Ну как сказать. Control. Пресет «высокие». 1440р. 5700xt. Интересно, что там болеет?

      Control
      image

      • kravtsov_victor
        /#22212342

        Так у Вас лучей нет. Если взять аналогичную видеокарту от NVidia — RTX2070Super и включить лучи, то в 1440p будет фпс будет немногим больше 40.

  12. picul
    /#22209810

    Прекратить порочную практику «тяп-ляп и в проду, а Nvidia потом выкатит оптимизационный патч»
    Nvidia объявят, что разработчики игр ведут себя, мягко говоря, нехорошо, и забили болт на оптимизацию
    выступит против творящейся в игровой индустрии вакханалии
    А Вы точно осознаете, сколько GPU нужно выполнить вычислений, что бы сгенерировать качественное по современным меркам изображение (напомню, даже на «устаревших» 60 Гц на это есть всего 16 миллисекунд)? Или просто нужно было срочно написать какую-нибудь желтуху?

  13. Alexey2005
    /#22209870

    Это не низкая культура разработки, а грёбаная кроссплатформенность. Когда игра должна работать на целой пачке различных девайсов, под каждый из которых по уму бы надо писать собственную процедуру рендеринга, код начинает выглядеть жутковато, да и отлаживается плохо.
    И чем больше ассортимент устройств, на которых планируется запускать игру, тем хуже она будет работать на каждом из них.
    Конечно, разработчики могут заранее ограничить круг поддерживаемых устройств, заявив к примеру, что игра заработает только на платформе x86, только под Windows 10 с DX12 и только на карточках NVidia (AMD, Intel — лесом) серий не ниже 2080Ti. Тогда всё будет быстро. Но во-первых геймеры же первыми взвоют, что разработчики охренели для любого тетриса топ-девайс требовать, а во-вторых, это ещё и плохо скажется на продажах игры.

    • siziyman
      /#22213624

      А ничего, что консоли в том числе уже уходящего поколения (PS4, XOne) — это x86-машины на основе железа от AMD, принципиально никак не отличающегося от компьютерного (просто подустаревшего), а грядущие и тем более будут по сути кастомными потоково собранными компьютерами узкого назначения на основе тех же Zen 2 и Navi, что и десктопное железо уходящего поколения от AMD? Какие там беды с кроссплатформенностью?

      А видеокарточки — так универсальные графические API мало того, что давно изобрели, так к ним уже давно все привыкли, и спускаться ниже — это больше геморроя для геймдева, а не меньше. Драйвера обеспечивают совместимость видеокарт (и их низкоуровневой архитектуры) с этими API, которые все юзают — DX12, Vulkan.

      • sumanai
        /#22213774

        В консолях, по крайней мере текущего и выходящего поколения, объединённая быстрая память, и это сильно отличается от ПК, где есть сравнительно небольшой объём GPU памяти и большой сравнительно медленной системной.

        • siziyman
          /#22213884

          >сравнительно небольшой объём GPU памяти
          Сейчас на ГПУ среднего и выше ценовых сегментов ставят 6+ ГБ памяти исключительно.

          • sumanai
            /#22214138

            У меня 1650 Super и 4ГБ. Нда уж, больше 15 тысяч и «начальный» сегмент.
            Ах да, этого всё равно мало. У PS5 16ГБ объединённой памяти.

  14. miolini
    /#22210010

    Давно таких редкостных базарных потоков мыслей не читал. Интересно, высока ли корреляция с качеством услуг дата-центра, под аккаунтом которого сей текст опубликован.

    • Maslukhin
      /#22210196

      Вот тоже хочется сказать: "не надо русский насиловать язык так". Какая- банальная неспособность сформулировать свои утекающие мысли.

  15. YNechaev
    /#22210096

    Комментировать поток мыслей по основному тезису статьи не буду — здесь уже достаточно комментариев на эту тему. Автор живёт в какой-то параллельной реальности.


    Но вот что эти карточки только для игр, а не для вычислений — это ещё один миф. Те кто не сидят в облаках и кому нужно тренировать нейросети вполне себе используют consumer-grade GPUs — это в разы дешевле с минимальными просадками по производительности в single и half precision по сравнению с топовыми "научными" GPU.
    Мы в какой-то момент закупились 1080ti в наши сервера и это покрыло требования целого рисёч юнита в GPU вычислениях.

    • gangz
      /#22210630

      1080ti в сервера?
      А как у вас дела обстоят с лицензированием драйверов на nVidia в серверах?)

      • YNechaev
        /#22210652

        А с этим есть какая-то проблема? Мы ставим CUDA с официального сайта на линукс и считаем свои сетки. Если там есть какие-то ограничения, то нам о них никто не рассказал.

        • Hardwar
          /#22210884

          Пункт 2.1.3 лицензии? Она довольно корокая, кстати.
          "No Datacenter Deployment. The SOFTWARE is not licensed for datacenter deployment, except that blockchain processing in a datacenter is permitted."
          https://www.nvidia.com/en-us/drivers/geforce-license/

          • YNechaev
            /#22211010

            Ну так мы же не датацентр. И вообще сомнительно что без явного определения что является датацентром они смогут кому-то что-то предъявить в суде по этому пункту.


            Но сам факт существования таких пунктов показывает насколько сообществу нужны решения с опенсорсными драйверами — а то купил железку, а пользоваться ей можно только по велению левой пятки компании производителя и только в правильную фазу луны.

  16. Suvitruf
    /#22210254 / +1

    Желтушные заголовки — заслуга не администрации хабра, а косоруких авторов статей.

  17. /#22210538 / +1

    Недавно купил RTX 2080Ti для расчетов, буквально в начале года. Сейчас бы купил и 3080.

  18. uhf
    /#22210760 / +1

    Я бы тоже купил бы 3080, потому что у меня её нет, а она мне нужна.

  19. mapron
    /#22211016

    Если не секрет, зачем нужны эти 60fps?
    Обычно все оправдания сводятся к «ну вот посмотри белый круг на черном фоне скачет, видишь в 60fps плавнее». опустим в сторону холивар о том, сколько людей реально видят разницу 30/60, а сколько верят, что видят (это на 2000 комментов тут будет), вопрос, окей, разница предположим есть, она действительна стоит чтобы переплачивать и гнаться за прогерссом и тп? 8к эти тоже у меня вызывают смех до колик, т.к. не на всяком видео я 720 от 1080 отличу (окей, на каких-то возможно, но в среднем по палате — нет).
    Так для чего эта гонка? для собственного успокоения «я теперь не вижу разницы между 100фпс и 1000фпс»? что плохого в том чтобы видеть низкий фреймрейт? Это кому-то эстетику ломает?

    • Alexsey
      /#22211104

      На такую постановку вопроса единственный ответ — потому что есть люди для которых 30 fps недостаточно плавно и портит впечатление от контента. Хотя кроме fps есть еще одна не менее важная величина про которую не часто вспоминают — frame time.

      • mapron
        /#22211120

        Я понимаю что «недостаточно плавно», я не могу понять «портят впечатление». Люди смотрят мультфильмы в 12фпс а то и меньше, и вроде все наслаждаются. ну да ладно. Допустим, такой феномен существует, отрицать не стану. Неужели таких людей действительно так много, что на них прям работает вся индустрия? Или это какая-то искусственно разогретая потребность?
        (ниже кста комментарий habr.com/ru/company/dcmiran/blog/524256/#comment_22211096 как нельзя в тему — купил 60 фпс но блин фильмы все 24. действительно, почему)

        • homm
          /#22211136

          Так может наоборот, вы — феномен, что не понимаете ценности плавного изображения.

        • Forthright
          /#22211154

          Одно дело просто смотреть, и совсем другое взаимодействовать с контентом, концентрируясь на нём, а зачастую ещё и сорвенуясь с другими игроками в эффективности и скорости этих взаимодействий.

        • Alexsey
          /#22211168

          Неужели таких людей действительно так много, что на них прям работает вся индустрия


          Мне кажется ответ на этот вопрос очевиден если вспомнить что релиз новых процессоров amd и видеокарт nvidia всегда сопровождается тотальным отсутствием оных на полках в течение нескольких месяцев. Опять же — где-то около половины пользователей Steam владеют видеокартами без проблем выдающие 60fps. А это около 11 миллионов человек.

          А еще есть шлемы виртуальной реальности где от fps меньше 70-80 банально мутить начинает.

        • Chamie
          /#22211474

          Ну, вот попробуйте банально последить взглядом за летающей тарелкой. На низких ФПС всё просто расплывается, хотя, стоит сделать скриншот — и все картинки чёткие, до пиксела.

          • mapron
            /#22213560

            Ну лично я между верхними двумя полосками разницы не вижу)

            • siziyman
              /#22213636

              Сфокусируйтесь на НЛО на первой полоске и на второй, там довольно очевидно всё.

    • Forthright
      /#22211148

      30 фпс это боль. Годится только для интерактивного кинца или как компромис в портативных консолях с небольшим экраном (тех, которые преимущественно с сине-красной расцветкой). 60 кадров это действительно некий минимум комфортного восприятия картинки большинством глаз и мозгов. У меня ощущение, что вы ни разу не играли с 60 фреймами, ибо банально не нужно напрягаться и присматриваться чтобы запросто заметить разницу. А после этого 30 кадров воспринимаются чуть ли не как слайд-шоу.

      • webkumo
        /#22211248

        Хм! А я понял! Это как с Hi-Fi аудио! Вот средний человек или разницу не услышит или будет слушать музыку. А аудиофил будет слушать шумы!!!
        Так и здесь — и лаги и фреймдропы я на своём достаточно бюджетном оборудовании спокойно терплю — нет, есть игры, где хочется картинку, согласен… и будь времени на игры побольше, я бы, вероятно, раззорился на среднюю игровую станцию… но если не гоняться за киберспортивными достижениями в активных играх мне хватает моих слабеньких 30-60 фпс. Просто потому, что я познакомился с играми ещё в 90х при очень слабом на тот момент железе. И там было — или 10 фпс, или вообще никак.

        • Alexsey
          /#22211396

          Ну сравнение с аудифилами с их шумами все же не совсем корректно, это все же психоаккустика в которой все крайне индивидуально. Более наглядным примером было бы — 30 fps это как mp3 в 64kbps, а 60fps это как mp3 в 192kbps. Слушать можно и то и другое, но 192 как-то по-приятнее звучит без всех артефактов присущих 64.

          • webkumo
            /#22216242

            Судя по тому, что я тут прочитал от владельцев — в лучшем случае это 128кбпс против 192. Вполне терпимая разница, да. Классику лучше в таком виде, наверное, не слушать (ширины диапазона может не хватить), но аудиофилы-то вас и за 192 затопчут.

        • printf
          /#22212354

          Хм! А я понял! Это как с Hi-Fi аудио!
          Это как с бизнес-ланчами. Вот есть чуваки, которые ходят в ресторан, ну или заказывают всякую дорогую нямку. Но можно же из помойки возле макдака достать пол-гамбургера и слопать! Средний человек так наверное и делает. Непременно будьте как средний человек.

          • mapron
            /#22213572 / +1

            Прям по Пелевину сейчас, человеку просто необходимо выпендриваться уровнем своего потребления. «О, смотрите. У меня монитор 8К. 60фпс. я ем еду дорогую из ресторана. Я не средний человек! Я успешный. Я молодец. Тёлки, давайте мне» и это вот всё.

            • printf
              /#22213702 / +2

              А вы как из «Нормы» Сорокина. (Зато мы оба клёвые и начитанные.)

              Мониторы же нынче стоят копейки, я у локального ретейлера буквально самый дешевый QHD брал по скидке, так он 144 Гц. В начального уровня игровых лаптопах из веточек и желудей мониторы 144 Гц и выше (например).

              Я бы понял этот стон на форуме многодетных матерей-одиночек, но мы ж на хабри, тут вроде программисты всякие. Уж на пожрать да компьютер купить им (нам) точно должно хватать.

              • DaemonGloom
                /#22214700

                начального уровня игровых лаптопах из веточек и желудей

                Ноут по ссылке — 125 тысяч. Ничего там у вас начальный уровень.
                Вы знаете, не все обитают в Москве. Или в Израиле (если судить по вашей ссылке).

                • printf
                  /#22215438

                  Игровые ноуты в принципе дорогие. В Израиле ещё дороже, поставщики охамели.

                  С другой стороны, новый айфон сколько стоит в РФ, тысяч 70-80? Игровой ноут от именитого бренда дешевле двух смартфонов же, получается.

                  В сравнении с айфоном любой ценник не так плох. :)

                  • sumanai
                    /#22215828

                    В сравнении с айфоном любой ценник не так плох. :)

                    По сравнению с некоторыми топами на андроиде и нормальный игровой ноут не плох.

                    • DoubleW
                      /#22219958

                      сколько людей реально видят разницу 30/60

                      Так запустите сами и посмотрите разниц, зачем рассуждать теоретически когда за минуту можно проверить
                      www.nvidia.ru/coolstuff/demos#!/g-sync

        • xsevenbeta
          /#22213322

          Хм! А я понял! Это как с Hi-Fi аудио! Вот средний человек или разницу не услышит или будет слушать музыку. А аудиофил будет слушать шумы!!!

          60 и 144 это скорей как разница в наушниках за 100-200р и наушников за 2-5т.р. Пока ты сидишь в наушниках за 200 — ты можешь не слышать басов и думать, что это нормально — основную мелодию же слышно! Но если человека пересадить с нормальных наушников на дешёвые — басов ему будет уже не хватать.

          Если в играх активно вертеть башкой, то 60гц после 144 будет восприниматься скорей как болезненное мельтешение.

          но если не гоняться за киберспортивными достижениями в активных играх мне хватает моих слабеньких 30-60 фпс

          Есть понятие комфорта. 30-40 фпс это нифига не комфорт и дело тут не в киберспорте.

          • mapron
            /#22213592 / -2

            Понятие комфорта вырабатывается на основе пережитого опыта. Если человек 40 лет сознательной жизни смотрел мультфильмы в 12фпс, то ему нет разницы между 30 и 60. Вы еще древнему греку покажите эти видео, что там ему комфортнее. Так и тут, вы хотите себе оправдать что покупка более дорогого оборудования стоило того, поэтому любые незначительные детали будут вас бесить и вызывать дискомфорт. Хотя видеть вы их будете 1% времени.

            • cepera_ang
              /#22213872 / +1

              Правильно, хороший вкус это не что-то естественное, свойственное человеку от природы, а зачастую что-то контринтуитивное, что-то что воспитывается специально. Конечно, когда у тебя проблемы в жизни заключаются в выборе между лапшой и картошкой на обед, тут уже не до воспитания вкуса к устрицам. Так и тут — покупку дорого оборудования нужно "оправдывать" только перед кем-то для кого эта разница несущественна от незнания или безразличия, для себя можно просто наслаждаться. Почему вы думаете, что будет именно так, что привыкшие к хорошему будут беситься от незначительных мелочей? В реальности, можно каждый раз просто наслаждаться тем какое у тебя всё кайфовое.


              В жизни много таких вещей, где улучшение на 1% тут, на 5% там, складывается в реальную и радикальную разницу в комфорте. Тот же компьютер — у одного это "просто комп", у другого всё выбрано со вкусом и под себя. И вроде никакой принципиальной разницы нет — и там и там можно открыть хабр и начать холивар, но один чуть-чуть шумнее (и это незаметно давит на мозг, замечаешь когда выключаешь "как же тихо стало"), чуть-чуть менее красив (не думаешь каждый раз "блин, какой же у меня клёвый и красивый комп" и не радуешься сам себе две секунды), чуть похуже монитор ("нафига эти триста герц? Видно и ладно"), чуть похуже мышка (курсор же ездит, какие проблемы? В смысле беспроводная без инпут лага удобнее? Какая разница сколько там грамм и как скользят ножки?), чуть меньше памяти (А ты не открывай столько вкладок), чуть медленнее диск (а нафига мне nvme? Гигабайты что ли копировать каждый день?), и чуть меньше (Просто переноси всё большое на другой жёсткий диск и всё) и так далее. И в итоге у одного "просто норм железка", а другой радуется этим мелочам каждый день.

              • mapron
                /#22213932

                Здорово вы описали, кстати) Я искренне завидую людям, которые могут радоваться мелочам. У меня, к сожалению, такого нет.

            • xsevenbeta
              /#22213976

              Так и тут, вы хотите себе оправдать что покупка более дорогого оборудования стоило того, поэтому любые незначительные детали будут вас бесить и вызывать дискомфорт. Хотя видеть вы их будете 1% времени.

              Монитор 27~ 144 чуть больше среднего смартфона стоит — не такая уж это как бы и роскошь. 144гц легко определит слепым тестированием любой человек, в отличии от разницы в звуке от золотых проводов.

              • sumanai
                /#22214150

                Монитор 27~ 144ГГц 4к стоит как крыло от Боига ))

                • cepera_ang
                  /#22214522

                  Разве что от модельки боинга 1:1000 :)


                  Такой из достойных мониторов вроде только один и стоит он около штуки баксов, не сказать, что прям запредельно дорого (дешевле айфона или сабжевой видеокарточки), но и вышел-то он буквально на днях.

                  • sumanai
                    /#22214556

                    штуки баксов, не сказать, что прям запредельно дорого

                    Это запредельно дорого ((
                    но и вышел-то он буквально на днях.

                    Да и до этого были, ваш не первый. Я бы взял 30 дюймов, 27 наверное уже мало будет ))

                    • cepera_ang
                      /#22214632

                      Это запредельно дорого ((

                      Печально слышать.


                      Но для себя я такие покупки вполне оправдываю тем, что это мне минимум лет на пять, а значит это всего 15 баксов в месяц, за пять лет удовольствия — вполне стоит того, а если есть вероятность продать за 50% от цены, то вообще 8$ — а это что-то вроде двадцати минут профессиональной деятельности разработчика за этим монитором.

                • iproger
                  /#22216152

                  Это какой столько стоит?

                  • sumanai
                    /#22216558

                    Банально на Яндекс маркете с соответствующими параметрами мониторы от 100к рублей.

                    • iproger
                      /#22218606

                      Не могу сказать что там на Яндекс маркете и какой курс рубля сейчас. Предлагаю сравнивать по Амазону. Вариантов куча: www.amazon.com/s?k=1440p+144&ref=nb_sb_noss_2

                      • uzverkms
                        /#22218662

                        По вашей ссылке 2k мониторы — они дешевле.

                        • iproger
                          /#22218722

                          А 4к я не заметил. Такие мониторы еще рано брать, стандарты еще только доделываются.

                • xsevenbeta
                  /#22216964

                  Я и не говорил про 4к.

                  144 и 4к это конечно уже совсем другой сегмент и мне сложно представить пепелац (и его цену), который бы выдавал 100+фпс на 4к.

                  • iproger
                    /#22218636

                    3080 в некоторых играх выдаст, msrp $799.

                    • sumanai
                      /#22218904

                      в некоторых играх

                      Пасьянс косынка, Солитёр?

                      • iproger
                        /#22220564

                        Гораздо больше чем вы думаете. Многие ААА до 2015, АА и инди.

        • mapron
          /#22213578

          Всё так и есть, но аудитория Хабра это скорее по большей части любители HiFi =)

    • uzverkms
      /#22211322

      Дело в восприятии плавности движения.

    • shiru8bit
      /#22211328

      Игры в 60 FPS были стандартом с самого зарождения игровой индустрии, потому что чисто технически сделать меньше было сложно — у первых игровых платформ не было буфера кадра, приходилось формировать графику прямо во время хода луча. И до прихода 32-битных приставок с 3D графикой 60 FPS оставалось стандартом, а после прихода — желанным но технологически трудно достижимым на тот момент, постоянно обсуждаемым в прессе качеством, т.к. игроки уже привыкли к хорошему и видели разницу.

      Не-игроки разницу вполне видят, хотя и не особо интересуются, в чём она заключается. В кино исторический стереотип 24 кадра, который ощущается как киношность, в то время как в видеозаписи опять же 60 кадров — и зритель легко отличает кинофильмы от новостных выпусков, а если кино снято с высокой частотой кадров (Хоббит), это ощущается ими как гиперреализм, не-кино.

      • OutOfMemory
        /#22212186

        60 FPS даже в ранние годы был не везде.
        Где-то он был реально достижим. Приставка NES была очень удачной, в 60 FPS шли почти все игры.
        А на ZX Spectrum 60 FPS были только в демо. В играх частым явлением было 12-15 ФПС. А иногда были просадки до 5-6 ФПС, когда что-то красиво взрывалось. Savage и Exolon очень хорошие примеры.
        Просадки были даже у аркадных автоматов, хотя это встречалось не так часто.
        И даже когда уже хорошо освоили аппаратное ускорение спрайтов, вышла приставка SNES. Там ФПС был очень нестабилен, из-за чего многие одинаковые игры (особенно порты с аркадных автоматов) на Сеге Мегадрайв были с бОльшим ФПС и обладали большей детализацией чем на SNES.
        В основном самые продвинутые аркадные автоматы (Capcom, Namco, NEO-GEO) выдавали самую лучшую картинку — большие спрайты или очень много небольших, хорошая анимация, честные 60 ФПС.
        А при переходе к 3D честные 60 ФПС были только на аркадах и топовых ПК, это да.

        • DrGluck07
          /#22212404

          Все Диззи действительно работали ровно 12 фпс, т.е. один кадр из четырёх. Разумеется мы собирались написать «свой собственный диззи», поэтому я в те времена ковырялся в движках.

        • shiru8bit
          /#22213806

          Игровая индустрия всё же не с ZX Spectrum начиналась. Он — один из самых бюджетных компьютеров в истории, с на добрую половину-две трети вторичным софтом (портами с аркад, мультиплатформой). Видеожелеза кроме сканера растра там не было совсем, всё рисовал процессор, а буфер растра был — конечно там не было 50 FPS, и процессор не мог успеть, и жизненной необходимости успевать не было. Поэтому там были стандарты на 2 (редкость) 3, 4, 5 обновлений экрана — 25, 16, 12, 10 FPS. Последнее в тех реалиях считалось приемлимым.

          • OutOfMemory
            /#22224748

            А что за «стандарты» на обновления экрана? Это так заранее старались организовать работу движков, чтобы избежать тиринга? Я помню, что тиринг был частым явлением, и во многих играх ФПС был нестабилен. В Saboteur 2 так вообще даже на статичном экране спрайты разваливались.

            • shiru8bit
              /#22225180

              Это, конечно, не промышленный стандарт, спущенный сверху, что надо делать вот так. В отличие от 'серьёзного' геймдева, т.е. аркад и консолей, домашние компьютеры той поры выживали за счёт стихийной разработки, в основном студентами за еду. Получалось у них как получалось, поэтому во многих играх и FPS нестабилен, и присутствуют артефакты, и множество других проблем. Но стихийно же сложилось, что если использовать синхронизацию с началом кадра, которая использовалась часто (чтобы как раз избежать тиринга или выводить спрайты без теневого буфера), рендер в игре будет укладываться в некоторое количество кадров, которое обычно старались держать стабильным. Отсюда 50/2=25, 50/3=16.7, и так далее. 25 FPS было труднодостижимо, мало кто замахивался на такую скорость рендера (Cobra, Ghosts & Goblins, Zynaps). Обычно рендер шёл 3-4 кадра, но бывало и больше.

              • OutOfMemory
                /#22225316

                Я так понимаю, что алгоритмы обновления экранной области были оптимизированы очень по-разному?
                Например, если фон был динамическим, то на некоторых движках течение 1-4 кадров выполнялись все процедуры движка, кроме записи в экранную область, а затем в 1 кадр старались уместить обновление экрана?
                А если фон был статический, то перезапись областей экрана могла быть разнесена по разным кадрам? Например в Myth было 25 ФПС, но обновление разных элементов происходило по очереди, примерно раз в 3-4 кадра. Перемещения разных врагов отрисовывались в разные кадры, в разные кадры также попадали разные группы анимаций — воды, огня, вспышек, перекрашивание атрибутов и т.д. Как раз из-за этих особенностей игра выглядела очень плавной и красочной.

                • shiru8bit
                  /#22225384

                  Есть три основных варианта скролла: в теневом буфере; прямо в экране (с пропуском пустых мест или всё подряд); или вообще без скролла, с полной перерисовкой фона с попиксельной точностью (используются заранее сдвинутые на нужное кол-во пикселей блоки). Пожалуй, в играх были все возможные варианты реализации всех вариантов. В том числе и когда весь рендер идёт в теневой буфер, а потом буфер быстро кидается на экран, и когда рендер спрайта на неподвижном фоне идёт в мини-буфер размером в спрайт, чтобы избежать мерцания (из экрана в буфер, в буфере наложение спрайта, потом обратно буфер на экран), и когда рендер идёт за лучом или перед ним, чтобы точно не пересечься. Или сначала перед лучом, а потом за, избегая попадания под луч.

                  Насколько я помню, в буфере делает прокрутку Chronos; прямо в экране R-Type; полная перерисовка в Zynaps, Dark Fusion, Ghouls & Ghosts.

                  Некоторые техники позволяют получить и 50 FPS, но этого добились уже после коммерческого заката платформы, в основном в отечественных играх. Это, конечно, достигается за счёт сильных ограничений, например, очень малое кол-во разных элементов в прокручиваемом фоне, либо сплошная заливка фона с прокруткой только его краёв.

      • Kelsink
        /#22215830

        Как меня, в последнее время, раздражает эта мода на «киношность». Да, где-то motion blur, смотрится уместно, но, в активных сценах это или постоянное мыло или дерганная картинка.
        Я уже не говорю про то, что многие пытаются любительские (youtube) ролики снимать в 24 кадра. При этом явно не понимают, что для получения «нужного» эффета необходимо очень аккуратно работать с экcпозицией и светом. Результат же — слайдшоу. Зато модно c выкрученными, нереальными цветами.
        Даешь стабильные 60fps !)

    • cepera_ang
      /#22211436

      Это как воздух — не замечаешь, пока он есть. У меня однажды монитор свалился в режим 30гц по какой-то причине и я несколько дней не мог понять, что у меня с компьютером — текст скроллишь, а он тык-тык-тык по экрану, окно двигаешь — тык-тык-тык, даже банально мышкой труднее попасть куда-то (особенно если быстро через пол экрана провести), потому что между отрисованными курсорами становится по десять сантиметров и глаза натурально теряют трекинг.

      Надо понимать, что у реального мира — нет никакого фреймрейта, нет fps и поэтому наше зрение и мозг приспособлены для обработки плавного изображения. Когда я двигаю бумажную страницу текста — то легко слежу глазами за любой точкой, когда я скроллю страницу в браузере, то глаза теряют точку фиксации и заново фиксируются (потому что плавное движение глаз возможно только за плавно движущимся предметом, иначе прыжки-саккады) при малом фреймрейте, или всё просто слишком размывается, чтобы продолжать читать в момент скролла при среднем. При высоком изображение выглядит +- как реальный мир.

      Можно симулировать отдельные кадры в мире — включите стробоскоп на 30 герц в комнате и попробуйте в ней посидеть, а лучше активно побегать. Очень быстро появится желание вернуться к нормальному миру. 60гц уже чуть лучше, но всё равно скорее как компромисс, временное решение, пока мы были лишены ЭЛТ, а высокоскоростные ЛСД ещё не пришли.

    • kravtsov_victor
      /#22212766

      Извините, а вы вообще играете в современные компьютерные игры?
      Я прекрасно чувствую разницу в играх не то что между 30 и 60 фпс, а даже между 45-50 и 60+. Без всяких счётчиков фпс.
      Много раз уже убеждался в этом — чувствую, что игра в определённый момент становится менее плавной. Включаю счётчик фпс и вижу, что частота кадров упала с 60+ до 50. Помню когда первый раз запустил Assessins Creed 4 Black Flag, то сразу был заметил отвратительную плавность картинки. Включил счётчик фпс — 40-45. Отключил PhysX, который и портил фпс — картинка сразу стала плавной, 60+ фпс.
      Про 720 и 1080 — тут тоже был непредвиденный слепой тест. У меня к телевизору (40" 1080p) подключен медиаплеер WD TV Live. Как-то раз включаю плеер, сразу замечаю, что интерфейс как-то хуже отрисовывается. Запускаю фильм — качество неожиданно плохое. Фильм — 40-гиговый ремукс в 1080p. Выхожу назад в интерфейс, лезу в настройки плеера и вижу, что по какой-то причине он переключился в дефолтные 720p.

      • DaemonGloom
        /#22214730

        С разрешением есть особенность, что 720p изображение на 720p экране выглядит несравнимо лучше, нежели 720p изображение на 1080p экране. За счёт этого переключение разрешения на неродное гораздо заметнее становится.

        • sumanai
          /#22215096

          Поэтому я на 4к ))

          • Chamie
            /#22219854

            Так оно же тоже не кратно 720?

            • sumanai
              /#22219864

              3840х2160 таки кратно, х3. Оптимально вообще 8к, но про такие мониторы можно только в новостях прочитать.

              • Chamie
                /#22219868

                А, этот «4к», который 3.8к. Не подумал.

                • sumanai
                  /#22220128

                  От честных 4к там разница небольшая, и в принципе можно выводить 720 с целочисленным масштабированием, пожертвовав небольшим числом пикселей по краям.
                  А «3.8к» идеально отображает популярные форматы, как сам 4к (которые по сути те же 3840х2160), так и предыдущие 1080р и 720р.

  20. PavelBelyaev
    /#22211096

    60 кадров дешевые бюджетные, ага, недавно такой купил за 130к 60 герцовый ips, для фильмов кстати 60фпс вообще красота, жаль что они все в 24 кадра выпускаются, приходится svp использовать

  21. beeruser
    /#22211166

    Плач Ярославны.

    Для обоих игр буквально с момента их релиза инженеры Nvidia истерично клепают патчи видеодрайвера, чтобы хоть как-то заставить их работать.

    Разумеется, ведь под новые игры ещё нет эвристик, и как оптимизировать работу GPU под них ещё предстоит выяснить. Стек очень сложный и там много чего может работать неоптимально для конкретной игры.

    Скажу больше, все настолько плохо, что RTX 2080 Ti в указанных играх способны выдавать стабильные 144-190 кадров в секунду только при минимальных конфигурациях графики, но даже при этом иногда случаются дропы FPS!

    ???
    В играх есть некий объём математики и операций которые нужно выполнить для отрисовки кадра. Хотите красиво, будет 60 фпс, а если хотите многафэпээсов, готовьтесь к тому, что графика будет попроще.
    Можно и семь шапок, как говорится.

    60 фпс это нативный режим большинства мониторов, телевизоров и представляет собой хороший баланс между играбельностью и сложностью графики.

    Я надеюсь, что когда-нибудь Nvidia надоест тратить силы и ресурсы на выпуск бесконечных патчей драйверов, которые улучшают производительность в проблемных популярных играх.

    Вы как-то забываете что разработчики игр пишут под абстрактный API и некоторая часть глюков и тормозов вызвана именно драйверами.
    Компиляторы C++ пишут десятилетиями и до сих пор находятся ошибки и оптимизируют производительность, а в случае компилятора для конкретного GPU у разработчиков есть буквально несколько лет.

    Выход из этой ситуации видится только один.

    Нет выхода ^_^

    • Silverado
      /#22213616

      Выход есть, автору просто нужна губозакаточная машинка. В направлении налаживания серийного производства и предлагаю направить его усилия, а статьи такие писать не стоит.

    • V1RuS
      /#22215476

      под новые игры ещё нет эвристик, и как оптимизировать работу GPU под них ещё предстоит выяснить

      Эх, а как классно было бы, если б можно было оптимизировать код самих игр…

  22. uzverkms
    /#22211362

    все геймеры планеты уже плавно перешли на 144 и 240 Гц дисплеи, а кто не перешел — либо мечтает перейти, либо играет исключительно в пасьянс.

    Идём в статистику стим.
    Популярное разрешение мониторов


    TOP-10 видеокарт


    Самые популярные игры


    Да, пожалуй автор прав. GTX 1060 сможет в fullHD выдать 144 Hz в контр-страйке и амог ас ) Но что-то мне подсказывает, что при всех маркетинговых усилиях, мониторы 144 Hz — по прежнему экзотика.

    • Alexsey
      /#22211402

      Но что-то мне подсказывает, что при всех маркетинговых усилиях, мониторы 144 Hz — по прежнему экзотика.

      А это легко проверяется. Идем на amazon и смотрим мониторы по количеству отзывов. 144Hz монитор на третьем месте.
      image

      На newegg в топе вообще почти нет не 144Hz+ мониторов.

      • cepera_ang
        /#22211438

        В топе продаж != являются широко распространёнными. Если общие продажи составляют 1% в год (допустим) от установленной базы, а топ продаж составляет пусть 30% от всех продаж, то на получение хоть какой-то значимой доли в общем количестве установок нужно будет ждать много-много лет :)

        В реальности цифры скорее всего другие, искать лень, но думаю не больше 10-20% от установленной (т.е. обновление монитора раз в 5-10лет, вполне разумное предположение, пишу эти строки с монитора 2012 года, обновляться собираюсь в ближайшие год-другой), а топ продаж скорее всего гораздо меньше 30%, может даже единицы процентов.

        • OstJoker
          /#22220934

          Скажу больше, мониторы Acer, HP и AOC. Это конечно показатель. Имели неосторожность купить один раз 28 мониторов АОС, в первые 2 года нам сервис по гарантии списал 8! из них. Проблемы с матрицей, розовит, рябит и т.д. Отломаные корпуса у ноутов Acer всплывают флешбеками в моей памяти во времена работы эникейщиком. Это производители с дна рынка, я бы себе такое не купил ни за какие деньги. У HP вообще ориентация на корпоративный сегмент больше.

          • siziyman
            /#22221318

            На удивление, мониторы Acer сильно качественнее, чем их помойные ноуты.

    • istepan
      /#22211730

      Ну 1060 вполне может выдавать больше 60 фпс. Будет конечно постоянно скакать между 50 и грубо говоря 80, но всяко лучше. 20 фпс уже дают заметную разницу.

    • printf
      /#22212774

      Идём в статистику стим. Про частоту мониторов там ничего нет.
      Зачем приводить статистику, если в ней нет интересующего параметра?

      • uzverkms
        /#22213790

        Затем, что вы не внимательно смотрели мой комментарий. По 3 показателям статистики видно, что если у кого и есть мониторы 144 Гц, на которых игры действительно идут с такой частотой кадров, то это скорее всего довольно специфический сценарий. И фраза «все геймеры планеты уже плавно перешли» является натягиванием совы на глобус.

        • printf
          /#22213890

          Нет, ну «все геймеры» это фигура речи, ясное дело.

          А статистика, самая популярная видеокарта в самом популярном разрешении в самой популярной игре (1060 на фуллхд в контрстрайке) 200 фпс делает запросто, так что эта статистика скорее подтверждает гипотезу про средний фпс выше 60, а не опровергает.

          Другие игры из списка, которые я знаю: Rocket League идет на любом железе вообще, а тимфортресс-2 вышла на 10 (?) лет раньше, чем 1060, так что наверное тоже работает хорошо.

          Я примерно это и имел в виду: у нас нет однозначных данных, а интерпретировать те, что есть, можно по-разному.

  23. Al_Azif
    /#22211492

    В своём глубоком анализе обстановки автор внезапно забыл про, собственно, game loop, который «где-то там» тоже не святым духом берётся.

    Забавляет ещё как пренебрежительно в каментах отбрасывают сетевой лаг даже в 2-10ms на локалке, отчётливо, тем не менее, «видя разницу» между 60 и 144 Hz. Попробовали бы лучше взять калькулятор и посчитать, сколько у тех самых «разработчиков» есть времени на I/O, логику и рендер кадра на 144 герцах.

    PS: «а косоруких разработчиков игр»
    и не разбирающихся в предмете авторах статей…

    3080 расхватали не из-за каких-то там абстрактных 144Hz, которые сто лет в обед никому не упёрлись (люди выбирают между i5 и i3, какой ещё 144Hz-монитор???), а просто из-за того что карта — дешёвая, и быстрее 2080Ti в полтора раза. (и перекупы, конечно же)

    • cepera_ang
      /#22211524

      Между 60гц и 144гц вполне может быть разница в 20-30мс и больше, если учесть всю кучу мест где обычно есть буферизация и синхронизация, а пинг в локалке 10мс — это что-то неправильное случилось с сетью, за такое время пакет может на тысячу километров слетать и вернуться, а задержки топовых коммутаторов вообще сотнями наносекунд измеряются.

      В любом случае, быстрее чем 15-20мс от нажатия мышки до появления пикселей на мониторе даже на 360-герцовых мониторах и самых быстрых игрушках не происходит, всё равно в десять раз медленнее, чем «2мс» локальная сеть :)

    • AllexIn
      /#22211766

      Графика и расчеты сейчас делаются в разных потоках.
      Так что нельзя объединять gameloop с рендеромпри расчете времени кадра.

      • Al_Azif
        /#22219410

        Но их всё равно нужно делать, а сколько времени, я вам подскажу:
        на 60Hz у вас есть 1/60 = 0.04ms для полной обработки I/O (сеть, game state, ввод игрока, загрузка моделей/текстур/звука если что-то ещё надо грузить и проч и проч), интер/экстраполяция стейтов. На 144Hz это уже 1/144 = ~0.007ms.

        Это если вы хотите _действительно_ иметь то о чём пишет автор — неведомым образом отслеживать руками и попадать в бошки на 144Hz. (понятно что это невозможно, но допустим автор — робот или там муха)

        В той же самой контре это всё тикает как раз с частотой server tick rate, и как вон выше заметили, она и 128-то не везде.

        >>Так что нельзя объединять gameloop с рендеромпри расчете времени кадра.
        Это то чего так сильно хочет автор. Мне 60 fps норм.

        • Al_Azif
          /#22219710

          Пардон, 1/60 = 0.016ms.
          0.04 — это 25 fps.

          • picul
            /#22219840

            Еще Вы слегка перепутали единицы измерений (0.016s, или 16ms).

  24. REPISOT
    /#22211644

    Ажиотажный спрос на новые карты Nvidia — заслуга не производителя, а косоруких разработчиков игр
    А что, на АМД карты такой же спрос? Нет. Так может, все же, Nvidia сделали что-то хорошее?

    • FeNUMe
      /#22211704

      Рано говорить о спросе на карты АМД которые еще не представили, а вот на старые поколения сейчас спрос пожалуй чуть ли не больше чем на новые жифорсы. Правда со стороны майнеров, а не геймеров.

    • AllexIn
      /#22211776

      Странное утверждение. До анонса 30ХХ тоже спроса не было на NV. Есть на АМД спрос или нет узнаем в ближайшие недели.

  25. FeNUMe
    /#22211700

    60FPS игровой стандарт как минимум еще лет на 5-7 по двум причинам: консоли и подавляющее большинство мониторов у пользователей. Плюс больше 60 фпс абсолютно не нужно в синглплеерных играх и ммо с пингом под 100мс. В итоге 120+ фпс нужно весьма ограниченному кругу игроков в еще более ограниченном списке киберспортивных игр.

    • uzverkms
      /#22212352

      Последнее поколение приставок по идее умеет в 4k 120 fps. Топовые телевизоры уже несколько лет имеют такой режим. По яндекс маркету ТВ 4k 120 fps начинаются от 35-40 тыс. рублей, то есть становятся вполне доступными.

      • FeNUMe
        /#22213408

        Это в маркетинговых материалах они такое умеют, а на деле некстген проекты хорошо если пойдут в 4к с 60фпс. Особенно на Series S, которая с большой вероятностью станет самой популярной из некстген консолей. И разработчики естественно будут подгонять свои проекты именно под это железо. Посмотрите туже презентацию UE5 на PS5 — она вообще была с локом в 30фпс.
        Что же касается оценки рынка по маркету — это бессмысленно. Естественно там будут преобладать свежие модели, но при этом их доля в общем количестве тв/мониторов на руках будет в лучшем случае несколько процентов. Все же речь о устройствах которые пользователи меняют раз в 5-10лет.

  26. Melonom
    /#22212232

    Ох, спасибо тебе Lineage 2, за шесть лет потраченных на тебя и навсегда отбитое желание во что либо играть.

  27. redsh0927
    /#22212648

    Для людей, далеких от игровой индустрии расскажу одну тайну: 60 FPS уже давно не стандарт.
    Зажрались эти геймеры. На моих школьных затычках 20 фпс в 800х600 было за радость!
    Многое даже не запускалось, пока не пошаманишь с дебаггером (чаще всего просто менял флажок при иницализации D3D, чтобы оно переключилось на софтовый T&L).

    • Skerrigan
      /#22217842

      С одной стороны я из еще более древнего времени (где-то Win95 (застав совсем реликт Win 3.1) и Win NT 4). С другой — 2k ips 144Ghz, 64Gb RAM.
      И да, мне почти позарез нужен новый GPU — текущего RX580 с 8Gb (+16Gb из RAM) маловато будет.

      Я к чему это все? Если ранее жилось совсем хреново (даже не про ЦП,… про дисплеи, что про память и дисковые накопители — все это полный шлак), то это не повод так и дальше жить.

      • xsevenbeta
        /#22218116

        Я к чему это все? Если ранее жилось совсем хреново (даже не про ЦП,… про дисплеи, что про память и дисковые накопители — все это полный шлак), то это не повод так и дальше жить.

        В те времена вообще не очень хорошо жилось и моя семья долбанный сникерс на четверых членов семьи делила. Поэтому и играли с проседанием до 5-10 фпс. Да и сейчас кто-то играет с минимальным разрешением и минимумом деталей, и радуется. Лучше, чем ничего.

        • Skerrigan
          /#22218782

          В те времена вообще не очень хорошо жилось

          Никак не спорю, ни в коем случае.
          Вместе с тем, это же не повод «не хотеть/желать лучшего»? Я об этом говорил.
          И геймеров не особо могу назвать зажравшимися с этого ракурса.

  28. alexey_girin
    /#22212708

    Не поленился заглянул в статистику стима
    62% карточек — это 1070 или СЛАБЕЕ.
    Самая популярная видяха — 1060 с долей 10%
    Топ 5 по полулярности:
    NVIDIA GeForce GTX 1060 10,37%
    NVIDIA GeForce GTX 1050 Ti 7,3%
    NVIDIA GeForce GTX 1050 4,63%
    NVIDIA GeForce GTX 1070 3,84%
    NVIDIA GeForce GTX 1650 3,6%

    Имея такой рынок — делать видеоигры под 3000 серию nVidia — безумие.
    Да и моники у всех — по 60Гц выдают. Какие сотни FPS? На кой они сдались?

    • SergeyMax
      /#22215172

      Имея такой рынок — делать видеоигры под 3000 серию nVidia — безумие
      Обычно в видеоиграх есть настройки качества графики. Поэтому игры делают одновременно для 1000-й серии, 3000-й, а прямо сейчас даже для будущей 4000-й)

  29. TheSima
    /#22213172

    Так раньше же оптимизировали чтобы можно было играть с хорошим откликом и с лучшей графикой на том что есть на рынке, пример с тем же Quake3. А сейчас графика в играх стала настолько широкой в плане возможностей что, ну если не тянет настроил поменьше характеристики, а если хочешь больше есть выход бери новое железо. Раньше такого манёвра у рядовых пользователей не было. Опять же оптимизация это время(=деньги) компании разработчика. А любой бизнес не будет тратить бюджеты чтобы у тебя на «твоей GTX 470Ti» было что-то лучше, да и я думаю если бы игры оптимизировали, то не было бы такого роста потребностей в видеокартах, майнинг не в счёт :)
    Как итог производитель игр получает релиз быстрее и за меньшие деньги, геймерам выход игрушки раньше тоже на руку, да ещё и в цене игры больше манёвра.
    А производители видеокарт от спроса тоже в плюсе.
    Из минусов для геймера это обновление железа. В итоге пришли к какому-то балансу…

  30. maxzhurkin
    /#22213334

    только если Nvidia наконец-то пересилит свое желание продать как можно больше флагманских карт и выступит против творящейся в игровой индустрии вакханалии
    у вас тут в слове «никогда» буквы лишние

  31. sumanai
    /#22213852

    Вообще для меня немного дико слышать, что дрова видеокарт оптимизируют под конкретные игры. А потом дико видеть, как эти драйвера весят гигабайты. С какого момента что-то пошло не так?
    Ах да, по теме статьи, 4к 144ГГц стоят нереально дорого, и, как уже написали, нигде этого нет. А в выборе между 4к и 144ГГц я выбрал первое.

    • cepera_ang
      /#22213888

      Так они под все задачи оптимизируются, которые предполагается решать с использованием этих ускорителей, считайте, что драйвера — это такая операционка для видеокарточки, почему она недостойна оптимизаций для наиболее распространённых юзкейсов (т.е. игр)?

      • sumanai
        /#22214154

        Я считаю, что должно оптимизировать для всех игр, а не какие-то частные оптимизации под каждую нововышедшую игру.

        • cepera_ang
          /#22214538

          Увы, мы живём в мире систем такой сложности, что нет никаких "универсальных" оптимизаций, любая оптимизация — компромисс между какими-нибудь противоборствующими показателями. И на стыке железа и софта это особенно ярко видно.

    • printf
      /#22213920

      4к@144 не просто дорогие, там еще реально нужна RTX 3080, чтобы в игры играть (ну, кроме Rocket League и CSGO).

      А по отдельности оно вполне доступно же, причем FullHD@144 по-моему дешевле чем 4k@60. И есть промежуточные варианты, например QHD@144 — и разрешение выше чем FullHD, и компьютер нужен не такой монументальный, чтобы шевелить этим всем.

      • sumanai
        /#22214168

        Ну так то да. Но QHD не даёт прироста плотности пикселей при покупке большого монитора. А я себе хотел большой. Первые пару дней думал, что купил даже слишком большой, 31 дюйм )) А сейчас привык, и меньше брать не буду.

        • cepera_ang
          /#22214554

          Смотрю на варианты 48" — плотность пикселей как у QHD (а у меня зрение больше и не тянет на разумном расстоянии), а размер как два 27" рядом.

      • uzverkms
        /#22214678 / +1

        >>FullHD@144 по-моему дешевле чем 4k@60

        Примерно одного уровня. FullHD@144 — от 13000 р., 4k@60 — от 16000 р.
        А вот 4k@144 — от 100000 р.

    • V1RuS
      /#22215492

      С какого момента что-то пошло не так?

      Видимо, с момента, когда nvidia решила, что такой подход будет офигенным конкурентным преимуществом перед ati.

  32. ads83
    /#22214308

    В комментариях уже прошлись по постулатам (140 Гц есть у любого уважающего себя игрока) и оценкам того, какая игра тормозит и где графика хорошая.


    Я же хочу высказаться по поводу последнего раздела "Как это изменить". Автор почему-то считает, что одного желания Nvidia будет достаточно. Но ведь деньги платит не она! Лично я не уверен, что даже если она перестанет оптимизировать драйвера, это заставит создателей условного Call of Doom потратить больше денег на оптимизацию вылизать графическую подсистему следующей игры серии до идеала.
    Автор сам говорит, что геймеры — которые покупают и игры, и видеокарты — готовы изучать гайды, шаманить и настраивать именно эти игры. Они не уходят из них стройными рядами толпами (хотя такое случалось с действительно плохими релизами).
    Я не играл ни в один из упомянутых шутеров и не знаю, чем они так хороши. Но игроки покупают эти игры, готовы тратить деньги чтобы играть в них. И пока их будет устраивать сумма факторов (качество картинки+фпс — далеко не всё), издатели не будут заинтересованы вкладываться сильнее в качество кода движка.


    Хотите, чтобы ситуация изменилась — агитируйте покупать игры с более качественным кодом. Что бы вы ни вкладывали в это понятие.

  33. vvs013
    /#22216258

    Хорошие IPS мониторы 60-75 Гц появились уже достаточно давно и те, кому жалко свои глаза, соответственно, давно их купили. Хорошие мониторы IPS с частотой 120-144 Гц появились можно сказать на днях, стоят не мало и сильно навряд ли сметены с полок.
    Так что не могу никак поверить, что почти все игроки перешли на них. К тому же, они (игроки), деньги жмут на мониторы, в отличие от работающих за ними. Короче, ну, это сильно притянуто за уши и попахивает бредом, то что не осталось ни у кого 60 Гц.

  34. maxzhurkin
    /#22216448

    .