Первые тесты инженерной версии процессора Эльбрус-16С +81


Появилась возможность протестировать инженерный процессор Эльбрус-16С и сравнить его с предыдущим процессором Эльбрус-8СВ.

Эта статья является продолжением моих предыдущих статей по бенчмаркам Эльбрусов:

Эльбрус-16С на архитектуре e2k-v6 является развитием процессора Эльбрус-8СВ (e2k-v5), который имеет 16 ядер на частоте 2 ГГц, поддержку аппаратной виртуализации, поддерживает до 4 ТБ оперативной памяти DDR4-3200, 32 линии PCIe 3.0.

Тестируемый процессор работает на материнской плате 1Э16С-mATX c с 2мя установленными модулями памяти DDR4 на частоте 2400.

Внимание: тестируется инженерный процессор с частично отключенным кешем, у серийного образца результаты должны быть лучше.

 Фото инженерной платы из интернета (на фото плата не моего экземпляра):

К результатам процессоров Эльбрус-16С и Эльбрус-8СВ добавляю процессор Intel Core i7-2600 для относительного сравнения.

Характеристики сравниваемых процессоров:

Эльбрус-16СВ

Эльбрус-8СВ

Core i7-2600

Семейство ISA

VLIW

VLIW

CISC

Архитектура

e2k

e2k

x86-64

Микроархитектура

elbrus-v6

elbrus-v5

Sandy Bridge

Частота (МГц)

2000

1500

3400*

Ядра; Потоки

16

8

4; 8

Техпроцесс (нм)

16

28

32

TDP (Вт)

130

80-90

95

Тип ОЗУ

DDR4-3200 (2400)

DDR4-2400

DDR3-1333

Год

2021

2018

2011

* — У Intel Core i7-2600 частота бустится, ядер 4, но 8 потоков HT.


Список компилируемых тестов (на языках С и C++):

  • Dhrystone, Whetstone, Linpack 100, Scimark 2, SuperPI

  • MP MFLOPS

  • TLB test, STREAM

  • HPL (High Performance Linpack)

  • 7zip встроенный бенчмарк

  • StockFish (встроенный тест шахматного движка)

  • Cpu Miner (minerd)

  • Рендеринг в Blender (Файл для теста)

  • Готовые результаты в SPEC 2006

Кроме того, я запускал тесты на языках программирования Java, C#, Python, PHP, Lua. Результаты: https://github.com/EntityFX/EntityFX-Bench/tree/master/results

Теперь сразу перейдём к сводной таблице с результатами.

Результаты

Компилируемые тесты

ВНИМАНИЕ: Сборка тестов производилась с подбором флагов оптимизации и использования профилировщика и на результаты влияет версия компилятора (я являюсь энтузиастом и собирал код своими силами и, надеюсь, МЦСТ смогут собрать более правильно). Архитектура Эльбруса предполагает, что вы будете оптимизировать производительность не только флагами сборки, но и менять сам код (для бенчмарков это запрещено делать).

Тест

Эльбрус-16C

Эльбрус-8СВ

Core i7-2600

Dhrystone [DMIPS] (1 поток)

8652

9077

22076

Whetstone [MWIPS] (1 поток)

2667

2269

5729

Whetstone MP [MWIPS]

42467

16495

31319

Linpack 100 [MFLOPS]

1831

1723

4302

Scimark 2 [Composite score] (1 поток)

923

908

2427

Coremark (1T;MT)

6162; 96873

5500; 43008 / 61871* (rtc x86-64)

22692; 119670

MP MFLOPS

1010040

381326

81745

HPL [GFLOPS] (1T;MT)

39;       561.6

32.3;    232.6

93.9 (MT)

7zip (Comp; Decomp; Tot) (MT)

19070; 33490; 26280

8461; 13638; 11049

18024; 13363; 18664

STREAM (Copy; Scale; Add; Triad) [MB/s]

20090; 19408;21848;22284
(2 modules modules DDR4)

23097; 23137; 25578; 25643 (4 modules DDR4)

20860; 21838; 18512; 20452

SPEC 2006 INT

24

18

44.6

SPEC 2006 FP (1T)

30

22.5

Blender (RyzenGraphic_27) [min:sec]

1:08

2:32

1:18

StockFish [nodes/sec]

6193924

3123190

10860720

SuperPI [sec] (1 поток) (меньше – лучше)

2.77

3.76

1.81

Minerd [sha256d khash/s] (1T;MT)

8820; 141104

6840; 54714

5307; 21226

(Core i5-2500K)

Minerd [scrypt khash/s] (1T;MT)

11.52; 183.01

8.50; 68.24

19.54; 78.26

(Core i5-6500)

* — В нативном режиме Эльбрус-8СВ в тесте Coremark показывает в 1,5 раза хуже результаты чем в режиме бинарной трансляции x86-64 кода (этот бинарный транслятор называется RTC). На Эльбрус-16С такой проблемы больше нет.

Результаты всех тестов здесь: https://github.com/EntityFX/anybench/tree/master/results

Geekbench 5 в бинарной трансляции RTC

ID

Name

Platform

Architecture

Single-core Score

Multi-core Score

9622424

MCST Elbrus 4C (х86 compatibility mode) 4 CPUs Intel Pentium II/III 750 MHz (1 cores)

Linux 64

x86_64

74

374

3110803

MCST Elbrus 8C (х86 compatibility mode) Intel Pentium II/III 1299 MHz (1 cores)

Linux 64

x86_64

140

937

5537127

MCST Elbrus 8CB (х86 compatibility mode) Intel Pentium II/III 1549 MHz (1 cores)

Linux 64

x86_64

159

1100

12407301

MCST Elbrus 16C (х86 compatibility mode) Intel Pentium II/III 2000 MHz (1 cores)

Linux 64

x86_64

203

2821

3462610

Core i7-2600Intel Core i7-2600 3401 MHz (4 cores)

Windows 64

x86_64

720

2845

Подробнее

Разбираем результаты

Логи результатов можете смотреть здесь

Dhrystone

Dhrystone достаточно древний тест 80х годов, написан на C. Тестирует целочисленную арифметику и работу со строками. Результаты измеряются в Dhrystone/s и DMIPS. (DMIPS = Dhrystone/s делить на 1757).

Эльбрус-16С немного показал хуже результаты чем Эльбрус-8СВ. Скорее всего, проблема с оптимизациями компилятором LCC, с новой версией будет перепроверяться.

Whetstone

Тестирует арифметику с плавающей/фиксированной запятой, математические функции, ветвления, вызовов функций, присваиваний, работы с числами с фиксированной запятой, ветвлений. Результаты измеряются в MMIPS.

Эльбрус-16С показывает результаты кратные частоте (2000 / 1500).

Coremark

Современный тест, который должен заменить Dhrystone и Whetstone. Написан на C. Считает различные массивы, матрицы, сортировка и т. д. Предназначался для запуска на всём: от микроконтроллеров до мощных процессоров.

Эльбрус-16С показывает гораздо лучшие результаты чем Эльбрус-8СВ. На 8СВ результаты в бинарной трансляции выходили лучше, чем нативные.

MP MFLOPS

Эльбрус-16С значительно обгоняет 8СВ, набирая более 1 ТFlops в числах с плавующей запятой одинарной точности.

HPL

HPL – переносимый высокопроизводительный тест, который используется для суперкомпьютеров. Решает системы линейных уравнений, использует библиотеки BLAS и MPI . Результаты выдаёт в GFLOPS.

Cpu

Year

Freq

Cores

1 thread (GFLOPS)

Multithread  (GFLOPS)

Elbrus 2C+

2011

500

2

3.8

6.8

Elbrus 4C

2014

800

4

6

21.6

Elbrus 1C+

2015

1000

1

10

10.0

Elbrus 8C

2016

1300

8

13

96.00

Elbrus 8C

2016

1200

8

12

82.5

Elbrus 8CB

2018

1550

8

32.3

232.6

Elbrus 16C

2021

2000

16

39

561.6

Elbrus 2C3

2021

2000

2

39

70.2

Результаты HPL

7zip

Встроенный тест архиватора. Тест особо не параллелится, результаты примерно равные на этих процессорах (частота одинаковая).

Cpu

Year

Freq

Cores

Total MT

Comp Avr MT

Dec Avr MT

Total ST

Elbrus 8CB

2018

1500

8

12164

9975

14353

1894

Elbrus 8CB

2018

1550

8

11049

8461

13638

1651

Elbrus 8C

2016

1300

8

10865

8736

12994

1697

Elbrus 8C

2016

1200

8

9031

6619

11442

1391

Elbrus 16C

2021

2000

16

26280

19070

33490

1813

Elbrus 2C3

2021

2000

2

3448

2499

4396

1894

Elbrus 1C+

2015

1000

1

1277.5

1301

1254

1277.5

Elbrus 4C

2014

800

4

2793

2065

3520

849

Elbrus 2C+

2011

500

2

1077

878

1276

645

Elbrus R2000

2018

2000

8

8728

5896

11560

1246

Elbrus R1000

2011

1000

4

2514

1959

3069

692

Baikal M1000

2019

1500

8

9868

8483

11252

1513

Baikal S

2022

2000

48

90039

75097

1295732

2378

Huawei Kunpeng 920

2019

2600

48

126143

112386

139899

3177

Huawei Kunpeng 920

2019

2600

96

204155

153863

254447

3177

Apple M1

2020

3100

8

33034

38166

27903

4458

 

 

 

 

 

 

Celeron N3350 *

2016

1100

2

3966

3568

4364

1961

Core i7 2600

2011

3400

8

16601

16179

17024

3773

Core(TM) i7-7820X **

2017

3600

16

47733

48501

46965

4982

Результаты 7zip

Больше результатов

Blender

Рендеринг сцены

Cpu

Freq

Cores

Year

Time (seconds)

Time

Core i7 2600

3400

8

2011

80

0:01:20

Elbrus 4C

750

4

2014

811

0:13:31

Elbrus 4C x4

750

4

2014

223

0:03:43

Elbrus 4C

800

4

2014

600

0:10:00

Elbrus 1C+

1000

1

2015

1916

0:31:56

Elbrus 8C

1300

8

2016

172

0:02:52

Elbrus 8C

1200

8

2016

216

0:03:36

Elbrus 8C x4

1200

32

2016

57

0:00:57

Baikal M1000

1500

8

2016

161

0:02:41

Elbrus 8CB

1550

8

2018

152

0:02:32

Kunpeng 920 x2

2600

96

2019

8

0:00:08

Elbrus 16C

2000

16

2021

68

0:01:08

Elbrus 2C3

2000

2

2021

544

0:09:04

Результаты Blender

SuperPI (1 млн)

1 поток:

Core(TM)2 Duo CPU     T9400  @ 2.53GHz:  2.58 sec

Core i7 2600 3.4 GHz:  1.81 sec

Elbrus 2C+ 0.47 GHz: 18.05 sec

Elbrus 4C 0.75 GHz:  10.18 sec

Elbrus 8C 1.2 GHz: 5.20 sec

Elbrus 8CB 1.55 GHz: 3.76 sec

Elbrus 16C 2.0 GHz: 2.77 sec

Stockfish

Cpu

Freq

Cores

Year

Time (seconds)

Core i7 2600

3400

4 (8)

2011

10860720

Core(TM)2 Duo CPU     T9400

2530

2

2007

1254341

Elbrus 4C

750

4

2014

541039

Elbrus 8C

1200

8

2016

1753143

Elbrus 8CB

1550

8

2018

3123190

Elbrus 16C

2000

16

2021

6193924

Baikal M1000

1500

8

2016

2750526

Результаты Stockfish

Minerd (Cpu miner)

./minerd --benchmark -a sha256d

Core i5-2500K:

thread 0: 26798032 hashes, 5307 khash/s

Total: 21226 khash/s

Эльбрус 8С (не оптимизирован):

thread 7: 2900420 hashes, 966.98 khash/s

Total: 7736 khash/s

Эльбрус 8СВ (оптимизирован):

thread 7: 34198012 hashes, 6840 khash/s

Total: 54714 khash/s

Эльбрус 16C (оптимизирован):

thread 7: 44098544 hashes, 8820 khash/s

Total: 141104 khash/s

Байкал-М 8 core 1.5 GHz, Cortex-A57:

thread 7: 4443436 hashes, 888.20 khash/s

Total: 7023 khash/s

Intel(R) Celeron(R) CPU N3350 @ 1.10GHz

thread 0: 2097152 hashes, 2403 khash/s

Total: 4808 khash/s

./minerd --benchmark -a scrypt

Core i5-6500 3.20GHz:

thread: 19.54 khash/s

total 78.26 khash/s

Core i7-9700K:

thread 7: 131280 hashes, 26.26 khash/s

Total: 211.68 khash/s

Эльбрус 8С (не оптимизирован +профиль):

thread 7: 6777 hashes, 2.26 khash/s

Total: 18.08 khash/s

Эльбрус 8СВ (оптимизирован):

thread 0: 4096 hashes, 8.50 khash/s

Total: 68.24 khash/s

Эльбрус 16C (оптимизирован под e2k-v5):

thread 0: 4096 hashes, 11.52 khash/s

Total: 183.01 khash/s

Байкал-М 8 core 1.5 GHz, Cortex-A57:

thread 7: 8875 hashes, 1.77 khash/s

Total: 14.03 khash/s

Intel(R) Celeron(R) CPU N3350 @ 1.10GHz

thread 0: 4104 hashes, 4.63 khash/s

Total: 9.25 khash/s

SPEC 2006 INT/FP

SPEC CPU2006 инструмент исследования производительности систем, который основан на коде реальных приложений, поставляются в виде исходного кода. Тест оценивает не только производительность процессора и памяти, но и показывает то, насколько компиляторы могут оптимизировать код.

Имеется 2 группы тестов:

  • SPEC INT 2006, измеряющий производительность целочисленных вычислительных задач (integer);

  • SPEC FP 2006, измеряющий производительность вычислительных задач с вещественными числами (числами с плавающей точкой, floating point).

Результаты производительности языков программирования

Логи результатов смотрите тут:

Java

1 поток:

  • Эльбрус 1С+ в 11 раз медленнее на 1 поток чем Core i7 2600

  • Эльбрус 4С в 10 раз медленнее на 1 поток чем Core i7 2600

  • Эльбрус 8С в 5,5 раз медленнее на 1 поток чем Core i7 2600

  • Эльбрус 8СВ в 4,5 раз медленнее на 1 поток чем Core i7 2600

  • Эльбрус 16С в 2,5 раз медленнее на 1 поток чем Core i7 2600

На всех потоках:

  • Эльбрус 1С+ в 18 раз медленнее чем Core i7 2600 на всех потоках

  • Эльбрус 4С в 12,5 раз медленнее чем Core i7 2600 на всех потоках

  • Эльбрус 8С в 3 раз медленнее чем Core i7 2600 на всех потоках

  • Эльбрус 8СВ в 2,5 раз медленнее чем Core i7 2600 на всех потоках

  • Эльбрус 16С равен Core i7 2600 на всех потоках

PHP

1 поток:

  • Эльбрус 2С+ в 15,5 раз медленнее чем Core i7 2600

  • Эльбрус 1С+ в 8 раз медленнее чем Core i7 2600

  • Эльбрус 4С в 4,5 раза медленнее чем Core i7 2600

  • Эльбрус 8С в 3 раза медленнее чем Core i7 2600

  • Эльбрус 8СВ в 2,5 раза медленнее чем Core i7 2600

  • Эльбрус 16С в 2 раза медленнее чем Core i7 2600

Python

1 поток:

  • Эльбрус R1000 в 12,5 раз медленнее чем Core i7 2600

  • Эльбрус 2С+ в 30 раз медленнее поток чем Core i7 2600 на 1 поток

  • Эльбрус 1С+ в 12,5 раз медленнее поток чем Core i7 2600 на 1 поток

  • Эльбрус 4С в 15,5 раз медленнее поток чем Core i7 2600 на 1 поток

  • Эльбрус 8С в 9 раз медленнее поток чем Core i7 2600 на 1 поток

  • Эльбрус 8СВ в 7,8 раз медленнее поток чем Core i7 2600 на 1 поток

  • Эльбрус 16С в 7 раз медленнее поток чем Core i7 2600 на 1 поток

На всех потоках:

  • Эльбрус 2С+ в 58 раз медленнее поток чем Core i7 2600 на всех потоках

  • Эльбрус 1С+ в 25 раз медленнее поток чем Core i7 2600 на всех потоках

  • Эльбрус 4С в 13,5 раз медленнее поток чем Core i7 2600 на всех потоках

  • Эльбрус 8С в 4,2 раза медленнее поток чем Core i7 2600 на всех потоках

  • Эльбрус 8СВ в 3,8 раза медленнее поток чем Core i7 2600 на всех потоках

  • Эльбрус 16С в 1,7 раза медленнее поток чем Core i7 2600 на всех потоках

Lua

1 поток:

  • Эльбрус 2С+ в 16 раз медленнее чем Core i7 2600

  • Эльбрус 1С+ в 6 раз медленнее чем Core i7 2600

  • Эльбрус 4С в 10 раз медленнее чем Core i7 2600

  • Эльбрус 8С в 6 раз медленнее чем Core i7 2600

  • Эльбрус 8СВ в 5 раз медленнее чем Core i7 2600

  • Эльбрус 16С в 4 раз медленнее чем Core i7 2600

  • Эльбрус R1000 в 9 раз медленнее чем Core i7 2600

C# NetCore (В режиме трансляции RTC)

1 поток:

  • Эльбрус 8С в 3,5 раз медленнее на 1 поток чем Core i7 2600

  • Эльбрус 8СВ в 3 раз медленнее на 1 поток чем Core i7 2600

  • Эльбрус 16С в 2 раза медленнее на 1 поток чем Core i7 2600

На всех потоках:

  • Эльбрус 8С в 2 раза медленнее чем Core i7 2600

  • Эльбрус 8СВ в 1,5 раз медленнее чем Core i7 2600

  • Эльбрус 16С в 1,25 раза быстрее Core i7 2600

Выводы

Эльбрус-16С на 33% быстрее Эльбрус-8СВ на 1 поток и имеет в 2 раза больше ядер. Есть задачи, где он очень эффективен, где-то не очень, думаю найдёт свою нишу.

Жду ваши предложения, какие ещё бенчмарки можно прогнать на этих компьютерах (желательно с простой сборкой).

P. S. Принимаю ваши предложения и правки, статья пополняется.

Стикеры Телеграм с Эльбрусами: https://telegram.me/addstickers/Elbrus2000 :-)




Комментарии (203):

  1. AKonia
    /#23998245 / +15

    Простейший вопрос: тесты оптимизировали ? Просто под интел они ясен пень оптимизированы и в цифрах соменения нет, но с Эльбрусом же важна связь с компилятором, т.е. это примитивные тесты или пиковые с учётом оптимизации ? В противном случае было бы не правильно, если данное сравнение окажется из той же оперы, что и "сравниваю пузырьковую сортировку с быстрой, без оглядки на теорию сложности"

    • EntityFX
      /#23998249 / +10

      Да, само собой. Сам код не менял, игрался флагами сборки, профилирование компилятором LCC. Но вообще компилятор МЦСТ порой странно ведёт себя, да.

      • Ul3ainee
        /#24000351 / +6

        Может это в начале статьи где-то указать? А то меня ровно тот же вопрос сопровождал в течение всей статьи: «чем и как компилировали тесты?». Уж очень сильно это меняет дело в случае VLIW.

        • EntityFX
          /#24003453 / +2

          Да, добавил, а то СМИ там уже ахинею начали писать.

          • Banzay48
            /#24004477 / +4

            Да дружище, маху ты дал, первоначально не указав, что тесты не были оптимизированы под Эльбрус-16...

            А то там в новостях, твои тесты выдирают из контекста, и пишут чуть ли не

            "Энтузиаст вогнал гвоздь в крышку гроба МЦСТ и Эльбруса"...

            На том же ДНС-ШОП в новостях усираются, что именно ты доказал, что Эльбрус-16 чуть ли не в 250 раз слабее Intel Core7, а в комментах там такой срач развели что дай дороги. Чуть ли не "энтузиаст-оппозиционер протестировал Эльбрус-16С, и всему миру доказал что это полный кал, крайне не рекомендованный к приобретению".

            Смотри как бы теперь у тебя проблем не возникло. Те же ДНС полностью переиначили твою статью, и выставили тебя чуть ли не "борцом с системой и изобличителем лжи о импортозамещении".

            Я бы на твоем месте подал на ДНС в суд, или потребовал опровержения

            • EntityFX
              /#24004535 / +4

              Я со СМИ не сотрудничаю, мне интересны бенчмарки Эльбрусов, да и сами Эльбрусы (энтузиаст: работа с ними, программирование. Честно, мне Эльбрусы очень нравятся, хотел бы себе такой). Что там они пишут - я не отвечаю, я отвечаю за цифры и косяки тестов, постараюсь исправлять, если найдут ошибки в тестах/методике.

              Факторы:

              1. Инженерник (отключены часть кеш-линий)

              2. 2 планки ОЗУ на не полной частоте (2400 вместо 3200), надо 8 планок

              3. Компилятор не последней версии

    • khis
      /#23999739 / -18

      "А вы тесты оптимизировали?" - от создателей "А вы систему оптимизировали? " И "А вы ПО оптимизировали? ".

      Не слишком ли много накладных расходов ради того, чтобы заставить эту поделку работать хотябы на уровне 10-ти летнего? Я бы ещё может согласился с тем, что да, надо своё развивать, но ядра то, насколько я понимаю, это не отечественная разработка, то есть всё отечественное процессоростроение это не о классных спецах в проектировании ядер и архитектур, а о спецах, объединяющих IP ядра в соответствии с госзаказом?

      • trunya
        /#23999969 / +16

        Вы эльбрус с байкалом путаете

      • bbvoronin
        /#23999971 / +9

        Ядра, свои, родные, посконные, вероятно вы путаете Эльбрус с Байкалом (там АРМ)

        • Neo28
          /#24003725 / -3

          Там mips, но не суть)

          • amartology
            /#24004461 / +5

            В Байкал-Т — MIPS. В Байкал-M и Байкал-S — ARM.

      • Am0ralist
        /#24000905 / +8

        Я бы ещё может согласился с тем, что да, надо своё развивать, но ядра то, насколько я понимаю, это не отечественная разработка
        Своя, можете начинать переобуваться.
        Господи, сколько дзеном затянуло сюда людей, которые к IT отношение не имеют чуть более, чем полностью…

      • AllexIn
        /#24002225 / +4

        ТАк VLIW это как раз о "оптимизировано компилятором".

        Если мы забиваем на качество компиляции - бенч можно даже не запускать.

        • EntityFX
          /#24003475 / +1

          Верно, это сразу бросается в глаза. Ещё нужно лезть в код и оптимизировать участки.

    • Neo28
      /#23999975 / +5

      Под платформу тест на уровне кода оптимизирует компилятор. У интел вместе с железом доступен свой компилятор. Основные вендоры железа контрибьютят в gcc и прочие тулы опенсорсные, что бы код работал бодро на их железе. Это огромная работа, сопоставимая с разработкой железа

    • oYASo
      /#24000961 / -12

      Что значит "тесты оптимизированы"? Для разработчика должно быть все по дефолту: взял код, собрал, проверил, отправил в прод. То, что там есть какая-то связь с компилятором - прекрасно, но я же не буду оптимизировать десятки миллионов строк плюсового кода, чтобы они как-то по-особенному стали работать на Эльбрусе. Разработчики процессора это подразумевают, но не уверен, что с ними согласны разработчики софта.

      • anka007
        /#24001325 / +12

        Вообще-то вычислительная система состоит не только из процессора. И разработчики компиляторов точно так же оттачивают свое детище на условных коремарках. Игнорирование ключей компиляции удел скриптописателей, для них эти ключи вообще что-то страшное. А вот разработчики на тех же плюсах еще и собственный скрипт сборки напишут (aka makefile), как именно и с какими ключами собирать разные части программы, чтобы получилось хорошо.

        • oYASo
          /#24008321 / +1

          Ключи оптимизации являются инструментом компилятора, они, естественно, должны быть выбраны максимально эффективно для целевой платформы, но я говорю не про них.

          В моем понимании "оптимизация" - это затачивание тестов под конкретную платформу. e2k архитектура подразумевает, что вы знаете о широкой команде, и стараетесь писать код так, чтобы эту широкую команду максимально заполнить для параллельной обработки. Если вы делаете так, вы действительно получаете сильный буст, но проблема в том, что 99.999% кода написано без оглядки на такие архитектуры, а, следовательно, никаких преимуществ вы тут не получите.

          Поэтому интересны такие тестовые кейсы:

          1) Мы берем любой стандартный бенчмарк и компилим код as is под x86 и e2k и смотрим, какая разница в попугаях. В подавляюшем большинстве это то, на что нужно смотреть, потому что вряд ли люди будут переписывать openssl или какой-нибудь jsoncpp.

          2) Пишем максимально эффективный код для x86 и e2k и смотрим, насколько архитектура реально эффективно тащит задачу. Этот кейс ок, когда вы самые ресурсоемкие части своего продукта сразу пишите с оглядкой на платформу e2k. Не представляю, кому это, кроме МО РФ и некоторой госухе, надо.

          И я на всякий случай напомню, что VLIW в Intel умер. Да и не только в Intel, были разные идеи сделать что-то похожее, потому как сама идея выглядит вполне себе ок, но на практике оказалось, что писать эффективный компилятор под этой дело крайне сложно, а заставить всех разработчиков быть умными и сразу писать эффектиный код под архитектуру не получилось.

      • Crazy_Pit
        /#24001363 / +3

        это свойство vliw.. вот если в эльбрусе бы не было транслятора для Х86 . то без компилятора бы тест не запустили и вопросов бы таких не возникало..то есть на нем можно запустить тест в двух режимах.

        • oYASo
          /#24008337

          Не очень понял, о чем Вы. Да, Эльбрус имеет бинарный транслятор, но это все-таки дополнительный бонус для историй, когда код под платформы по каким-то причинам пересобрать нельзя. Наверное, разработчиков в первую очередь интересует история, когда код собрать можно.

          Или о чем был комментарий?

          • Crazy_Pit
            /#24008695

            Что значит "тесты оптимизированы"? Для разработчика должно быть все по дефолту: взял код, собрал, проверил, отправил в прод

            тесты собраны под х86. и сравнивать именно этот процессор в режиме трансляции не корректно. то что хотели сделать плюсом процессора обернулось минусом. тк в режиме трансляции он устурает кстати разработчики это и не скрывают. я не собирал под данный процессор ничего. и поэтому не могу ничего сказать о сложности сборки под эльбрус.

            • oYASo
              /#24009057

              У автора статьи тесты собраны как нативно под платформу, так и с бинарной трансляцией. Тут можно поискать со словом RTC: https://github.com/EntityFX/anybench/tree/master/results

              Конечно, делать выводы по нативному исполнению и эмуляции некорреткно, это понятно. Но эмуляция x86 для Эльбруса стратегически правильное решение, потому что есть куча софта, которые портировать не получится, а запускать надо.

              Но основное сравнение: это все-таки нативный код для e2k и нативный код для x86.

      • saboteur_kiev
        /#24001791 / +4

        > Для разработчика должно быть все по дефолту: взял код, собрал, проверил, отправил в прод

        Да ладно. Возьмем какой-нить софт для расчетов, например magma
        http://magma.maths.usyd.edu.au/magma/download/x86_64-linux/
        Почему там есть отдельные дистрибутивы под amd и под intel?
        Просто Эльбрус недоступен широким массам и не популярен, поэтому под него нужно специально компилировать, и это еще компилятор должен знать особенности эльбруса.

        А так, если вас не интересует производительность, то совместимость позволяет работать и так. Но как разработчика, это вас не красит.

        • Am0ralist
          /#24001961 / +2

          А так, если вас не интересует производительность, то совместимость позволяет работать и так
          Примерно, как компилировалось интеловским компилятором с условием «если амд, то считай, что у него ничего нет из расширений и делай самым не оптимальным методом»? )))

        • oYASo
          /#24008427

          Потому что можно использовать свежие SSE и прочие AVX-512, которые дают сильный буст на математике.

          А использование всего оптимизационного добра на e2k хоть и дают сильный буст, но только в рамках их архитектуры - остальным они все равно сильно проигрывают. Поэтому ребята из magma и всех других расчетных софтов вряд ли будут пилить какую-то серьезную поддержку нашей архитектуры, потому что зачем? И отдел стратегического планирования МЦСТ должен это понимать: никакой массовости не будет, никто специально поддержку пилить не будет, значит, большинство кода на платформе будет использоваться as is.

      • DungeonLords
        /#24007349

        Для общего развития вам может быть полезна

        https://habr.com/ru/post/442682/

    • DistortNeo
      /#24002611 / +5

      Собственно, да. После вот этой статьи:
      https://habr.com/ru/post/647165/
      где оптимизацией кода можно достичь ускорения в 44 раза на Эльбрусе, становится очевидным, что тестировать надо тоже правильно.

      • Neo28
        /#24003695 / +1

        Кейс классический вообщем-то. Есть софт, есть железка. Софт собирается компилятором, получается скорость х. Затем если необходимо идёт тонкая настройка руками. Стоимость доведения софта до максимальной скорости работы руками обычно дорогая и применяется в крайних случаях. Если всё вылизать то в данном случае и конкуренты мягко говоря сильно прибавят). Если надо ещё быстрее то берём и считаем на gpu, как вообщем то и делают для подобных разностных схем обычно)

        Я что пытаюсь сказать. Сравнивать надо яблоки с яблоками. Те как работает тест или задача из коробки. И сколько можно выжать и за какое время руками(ну и не забываем, что людей кто может подобное делать хорошо не так много) . Ну и выбираем железо правильно под задачу)

        • Am0ralist
          /#24004221 / +3

          И поэтому интел кучу лет угробил на компилятор свой, который сам колбасит по исходному коду нехило так, при этом зачастую ещё и условия вставляя «если амд, не используй ветку с новыми наборами команд», чтоб сравнивались яблоки с яблоками, ага.
          Более того, в том кейсе автор проводил по большей части классические манипуляции, которые улучшали скорость везде, ровно по той причине, что компиляторы сами не всегда правильно преобразуют код и иногда код нужно написать более понятно для них (не для железа).

          Если всё вылизать то в данном случае и конкуренты мягко говоря сильно прибавя
          Если всё вылизать или если всё прибить гвоздями к конкретной реализации некросплатформенно?

          • Neo28
            /#24004427 / +2

            Ни один компилятор пока не умеет делать идеальный код. В любом компиляторе всегда ищется баланс.

            Компилятор у интел специально не замедляет код для АМД, он не пользует просто фичи, где АМД лучше интел) . Да, смысл то же для юзера, но юридический смысл другой, интел из за этого ходил неоднократно в суд). И делает он так очевидно почему. Интел же не компилятор продаёт, а процессор. АМД так же делал, когда у них был свой компилятор лет 20 назад или около того. Просто бизнес)

            А и да, код вылизывают, прибивают не просто гвоздями к вендору, А бывает и к конкретной железке иногда) вылизывают не всё, а только боттл неки, которые основное время жрут. Поэтому если такие кастомеры садятся на платформу, подвинуть их на конкурента очень сложно. Я ещё до времён gpu использования для расчётов с плавающей арифметики, для пиксара делал оптимизацию рендера, для рендеринга мультиков. Они сидели на интел и к красным уходить не хотели совсем) потаму что интел помогал код вылизывать, а они каждые 3-4 года обновляли процы для 20к серверов)

            • Am0ralist
              /#24004893 / +4

              В любом компиляторе всегда ищется баланс.
              Не ищется, а достигается. Многолетним развитием этих компиляторов. Возьмите компилятор для интела лет 15 назад и соберите с ним ту же программу, поиграйте и сравните.
              Компилятор у интел специально не замедляет код для АМД, он не пользует просто фичи, где АМД лучше интел)
              А если найду, вы перестанете писать подобное? А если вспомнить, что бывают ещё библиотеки интела?
              А и да, код вылизывают, прибивают не просто гвоздями к вендору, А бывает и к конкретной железке иногда)
              Так ведь в статье никто не прибил код к Эльбрусу, вообще-то. Поэтому ваши
              Если всё вылизать то в данном случае и конкуренты мягко говоря сильно прибавя
              Некорректны

              • X3_Shim
                /#24008007

                >> А если вспомнить, что бывают ещё библиотеки интела?

                Кстати, совсем давно я ускорял матлаб, путем подсовывания в него MKL, вместо использующейся ACML, получил огромное ускорение и параллельность. Всего то небольшую интерфейсную либу приделал к MKL.

                А  MKL_DEBUG_CPU_TYPE вообще была изначально задумана для тестирования разных веток кода на топовых процах. Расползлось однако, хотя прикрыто имя переменной в коде было просто XORом :)

        • DistortNeo
          /#24004775

          Если всё вылизать то в данном случае и конкуренты мягко говоря сильно прибавят

          Если посмотрите статью, на которую я сослался, то окажется, что прибавка у конкурентов уже не такая существенная.

  2. Alusar
    /#23998251 / +6

    Интересно.

    Хотя пока слабо представляю в каких именно решениях может быть использован подобный камень.

    • EntityFX
      /#23998253 / +10

      В считалках, в хранилках, БД сервера, защищённые компы, ну как Intel Itanium.

      • Neo28
        /#24000033 / +10

        Итаниум, сдох де-факто ещё в 2010 году, когда я оттуда уходил) интел его тянул ещё долго ибо были уже клиенты жирные, в основном япошки, которым по контракту интел был обязан поставлять чипы ещё несколько лет. Звучит странно но кто с Япошками работал поймёт, им что то продать сложно, но если продал они это годы будут пользовать.

    • vanxant
      /#23998943 / +1

      Во всех, где не любят Intel ME и прочие зонды, например.

      • quwy
        /#23999241 / +10

        RISC-V. И доступнее, и его производители синдромом вахтера не страдают.

        • vanxant
          /#23999299 / +11

          Доступнее? Назовите любой один сервер на RISC-V, чтобы можно было прям купить.

          • quwy
            /#24005119

            А много Эльбрусов можно вот прям купить? Чтобы без совдеповского маразма с обиванием порогов и подписыванием кипы бредовых бумажек?

            Я не зря предложил именно "виртуальный" RISC-V, а не свободно продающийся ARM, например. Просто потому что при всей своей текущей виртуальности RISC-V все равно доступнее. Не сейчас, так в перспективе ближайшого времени.

            А этих вахтеров с неблагозвучным названием и десятиление не научит простому правилу: на конкурентном рынке продавец бегает за покупателем, а не наоборот.

            P.S. Ответ в том числе и на реплику@Am0ralistниже.

            • Am0ralist
              /#24005149

              На госзакупках вполне себе будет реально.
              Лично вам? А зачем лично вам он? Государство для своих структур делать хочет свои решения. Это не обязательное к исполнению всем физикам и большинству юриков вещь.
              Может быть риск5 от ядра станет более широко применим, и его с удовольствием станут и коммерческие структуры себе брать. А может быть — нет. Вот только эльбрусы уже есть, а рисков5 нет вообще и не будет минимум года 3 ещё.
              По вашему что лучше — синица в руках или утка под кроватью журавль в небе?
              И кто сказал, что оные риски можно будет свободно купить?

              • JerleShannara
                /#24005183 / -2

                Хинт: если я не могу купить байкал, я иду и покупаю бродком/медиатек/рокчипс/аллвинер. Если я не смогу в будущем купить ядропуперриск я пойду и куплю хайфайв и прочих. Если я не могу купить эльбрус, ну да, ну да, пошёл я.

                • Am0ralist
                  /#24005199 / +1

                  А если вы не можете купить винду, то куда вы пойдёте, особенно если ваше ПО к нему прибито разработчиком всё это время было?

                  • JerleShannara
                    /#24005211 / -1

                    Достану из сундука попугая и повязку, если не найду решений, которые можно будет заюзать.
                    П.С. Дам подсказку — в компуктерном магазине можно спокойно купить коробочку с надписью Microsoft Windows 10 Professional и даже с Microsoft Windows Server 2019. И никто вам там не скажет: руки вверх, подлая морда, покажи докУмент, что ты не МГУ.

                    • Am0ralist
                      /#24005229

                      Ну, пошла фантастика.
                      Да проще тогда объявить трофейной, ага.
                      Вас спрашиваешь про реальность, вы уходите в выдуманные миры, извините, но я сверну общение с вами, ибо на таком уровне аргументация является попыткой убедить, что бога нет, того, кто искренне верит.
                      Реальность — по ссылке.

                      • JerleShannara
                        /#24005249 / -2

                        Реальность такова, что винду (а вы про неё и спрашивали) можно купить в магазине — попробуйте, я так делал, это реально возможно.

                      • Am0ralist
                        /#24005469 / +1

                        ...что вы описываете личные покупки.
                        Игнорируя реальность, ага.

                      • JerleShannara
                        /#24005531 / -2

                        Подсказка: после покупки в зубы берётся чек с накладной, коробка с виндус. Далее идём бухгалтерию и опа, теперь это не у частника, а у организации на балансе. Если же нам надо 20000 виндусов, то есть фирмы, управляемые зицпредседателями фунтами, которые с радостью за +х% купят и перепродадут вам много чего интересного. Это если вернуться в реальность из розовых мечт, в которых ограничения действительно работают.

                      • saboteur_kiev
                        /#24009269

                        осле покупки в зубы берётся чек с накладной, коробка с виндус. Далее идём бухгалтерию и опа, теперь это не у частника, а у организации на балансе

                        Простите, вьюноша.

                        Но потом к вам приходит аудит, находит что у вас ОС не по ГОСТ, и впаивает вам миллионный штраф. А если вы работаете в военке, то и уголовку за подрыв государственной деятельности.

                        Вы вообще думайте шире, а не о своем личном компьютере где-то дома или о маленькой ООО "рога и копыта". Там где нет запретов - там их нет. Там где есть - они есть.

                        И если уж надо работать на винде там, где нельзя, это решается другими способами, а не те варианты, которые вы предлагаете и которые выглядят как детский лепет.

                      • JerleShannara
                        /#24009373

                        Я этим кстати реальность описывал. И если в инструкции на АРМ указана «Виндус Восемь», то ставить туда надо именно её, а за другую вам и прилетит всё, что вы наобещали. Плюс если прочитать внимательнее, с чего пошёл посыл про «купить за нал в магазе, а бухи поставят на учёт» или «заказать через фирму-прокладку», то он был про то, что делать, если используемый в производственной цепочке софт «Виндуз онли» и не хочет идеально работать при помощи всяких wine. Можете недавний скандал про турбины сименс вспомнить к примеру такого решения проблемы.

            • DungeonLords
              /#24007357

              Поддерживаю топик стартера ссылкой на компьютер на risc v. Купить можно хоть на али

              Allwinner D1

        • Am0ralist
          /#24000913 / +4

          RISC-V. И доступнее, и его производители синдромом вахтера не страдают.
          Ок, покажите в реальности а) доступный и б) производительнее уже сейчас?
          А когда-нибудь — так Ядро уже начали проектировать. Через 3-5 лет увидим.

    • Wan-Derer
      /#24001719 / +2

      каких именно решениях может быть использован подобный камень

      В любых. Это ЦП общего назначения. А то что производительность ниже..... Ну сколько реальных задач, на которых ЦП загружен круглосуточно на 100% на все ядра? Сколько задач где жизненно важная скорость обработки? Я не спорю, такие есть, но каков их процент в реальной жизни?

      Интересно было бы взглянуть на такой тест, который бы учитывал производительность системы с учётом реального соотношения работы и простоя.

      • Alusar
        /#24001747

        Ну сколько реальных задач, на которых ЦП загружен круглосуточно на 100% на все ядра?

        Я не говорил об этом)
        Просто рассуждаю не только со стороны тех.параметров, но еще с немаловажной финансовой стороны.

      • Neo28
        /#24003745

        Не могу сказать сколько в %% по рынку. Но где сервер работает с загрузкой 80% я видел очень много. Это я бы сказал это типичный кейс для сколь-нибудь серьёзной инфраструктуры, где хотя бы пол-сотни серверов есть. 20% оставляется на нежданчики обычно. И народ да, прям вот планирует нагрузку и бюджет. Круг задач весьма высок, от стриминга киношек до ERP систем крупных контор. Да могут быть просадки в нагрузке в течении суток, но в целом сервер колбасит под нагрузкой

        • Wan-Derer
          /#24003793 / -1

          Хорошо. Но что мешает на такую задачу поставить два сервера вместо одного?

          Занимаемое место? Ну мы же не Сингапур! Мы 8 тыс км только в ширину :) Уж под ЦОД местечко найдётся! :)

          Потребляемое электричество? Ну так мы - ресурсодобывающая страна. И турбины крутить тоже умеем.

          Избыточное тепло? Ну так у нас обычно холодно! Почему бы не совместить приятное с полезным? :)

          В плюсах - резервирование.

          Конечно, не стоит ждать что так будут мыслить обычные эксплуатанты. Им чем проще/быстрее/стандартней - тем лучше. МЦСТ и Байкал - тоже не МикроИнтел, они эту тему субсидировать не могут. Здесь должно играть государство. А государство играет пока очень вяло. Я согласен с тем одним госзаказом отрасль не вытянуть. Так же одними запретами задачу не решить. А вот если добавить сюда пряник - может получиться. Если обычному коммерческому заказчику предложить хорошие условия приобретения и дальнейшего владения - он подумает-подумает, да и решится на эксперимент. А дальше уже дело производителей - сделать так чтобы эксперимент прошёл успешно.

          И во избежание бессмысленной дискуссии: я тут ни за что не "топлю", я пытаюсь ответить на вопрос "где этот камень можно применить".

      • Paul_Arakelyan
        /#24004553 / +2

        В настольном сегменте - производительность 1 ядра, пока что, важнее всего. Тут ситуация "ужас ужасный". И в БД - она тоже, часто, не редкая. Грубо говоря, то, что ты можешь отработать 100 параллельных запросов на 100 ядрах за 5 секунд, затратив Х Вт, не всегда компенсирует тот факт, что 1 запрос ты будешь отрабатывать те же 5 секунд, пусть даже конкурент сжирает 2*Х Вт на отработке 100 запросов, но если он это делает быстрее - юзер убежит к конкуренту и энергоэффективность не поможет.

        • Am0ralist
          /#24004919

          Стоп, нет, если именно в настольном сегменте, то там продаётся почему-то всяких силеронов, пеньков и прочего намного больше, чем топовых коре i7, у которых на ядро максимальные частоты и производительность оказывается.
          Вы уже приводите в пример уже более специализированного сегмента, кому нужны мало быстрых ядер в основном.
          А так даже на серверах стоят процы в основном с базовыми частотами по всем ядрам, а буст там хоть и есть, но далеко не у всех он требуется, так что даже те же армы, имея меньшее на ядро, таки в том же амазоне пошли, потому что в задачах параллельных нормально себя показали.

  3. Rezzet
    /#23998267 / +10

    Возможно ошибаюсь, но мне кажется что там где идет простое числодробление без сложных переходов, там Эльбрус показывает себя достаточно уверено, но там где появляются условные переходы и наверно кеш-мисы, становится все плохо. Возможно дело в плохом предсказание переходов и загрузке кеша?

    Если бы мне дали принимать решение о политике полупроводниковой отрасли, то наверно смотрел в сторону RISC-V.

    • lamerok
      /#23998285 / +1

      Насколько я понял из пресс-релиза, где то к этому и идёт, микс RISC-V и родное ядро. Первое для всего, второе для спец задач.

    • EntityFX
      /#23998289 / +7

      У Эльбруса нет предсказателя переходов, переупорядочивания инструкций. Прямое исполнение, микрокода нет, это и требуется для защищённого исполнения кода, 3 аппаратных стека и т.д.

      • JerleShannara
        /#24001195 / +5

        И до сих пор нет операционной системы, которая это бы всё смогла полноценно использовать.

    • EntityFX
      /#23998429 / +1

      RISC-V интересна, на неё плохой код вертеть самое то, если сделают процессор 256 простых risc-v ядер, но серверного исполнения (даже без SIMD). PHP, NodeJS, Python будет нормально работать.

      • Rezzet
        /#23998505 / +1

        Как по мне, так RISC-V интересна тем что есть огромная куча фирм которые делают блоки процессора разного назначения и фактически можно собрать современный процессор как конструкто лего. Алибаба вообще открыла свои ядра которые по их заявлениям быстре ARM A73. https://www.opennet.ru/opennews/art.shtml?num=56010

        Есть разные блоки под разными лицензиями, открытые/закрытые.

        Плюс софт который уже портирован на данную архитектуру.

        • EntityFX
          /#23998849 / +5

          Кстати, МЦСТ могли бы вместо своей линейки SPARC перейти на RISC-V. И деньги бы пошли, наверное.

          • akaAzazello
            /#24000261 / +4

            RISC-V только-только закончил формирование спецификаций - векторное расширение(RVV), без которого он был неполным для ниши HPC, в 2021 довели до версии 1.0 - так что сейчас очень подходящее время для перехода.

            • Am0ralist
              /#24000921 / +2

              Ну так этим же не обязательно МЦСТ должна заниматься) У нас и другие есть. Байкаловцы ж армы делали не оглядываясь на Эльбрусы. Ядро собирается.
              Это ж хорошо, если будет несколько команд и будет из чего выбирать.

              • akaAzazello
                /#24001911 / +3

                Как заметил автор, в МЦСТ (как минимум раньше было) 2 команды разработчиков - Е2К и (Sun) Spark - и было бы логично, чтобы знакомые с RISC архитектурой спарковцы занялись бы близкой (разработанной в том же Berkeley) и свободной RISC-V архитектурой, а не, скажем, ARM или слились с E2K командой

                • Am0ralist
                  /#24002019 / +1

                  Это если есть, если есть в достаточном количестве и т.п. У них с 15 года новостей нет, да и откуда им взяться, если для военки чипы делаются вроде как «тут», а «тут» нет лучших техпроцессов. То есть в данном случае они должны будут потом соперничать с тем же Ядром по рискам, которые более коммерчески ориентированные, а я не очень в это верю — мцст слишком долго с военными чисто варилась...

                  • amartology
                    /#24002213

                    если для военки чипы делаются вроде как «тут»
                    С чего вы взяли?

                    • Am0ralist
                      /#24004267

                      из интернетов, где пишут:

                      Выпускаются небольшими партиями по несколько десятков комплектов в месяц, часть процессоров для удешевления производятся на Тайване по российской документации, но в вычислительных комплексах СПРН применяются исключительно отечественные изделия.

                      • amartology
                        /#24004403

                        Не стоит верить всему, что пишут в интернетах. Особенно если это не официальный пресс-релиз МЦСТ или Микрона об освоении серийного производства процессора на отечественной фабрике. Ну или, на худой конец, ТЗ на ОКР по адаптации дизайна с TSMC на Микрон.

    • nixtonixto
      /#23999817

      Смотреть лучше в сторону ARM, Apple не даст соврать. Даже здесь в тестах их процессор для мобильных телефонов оказался в разы производительней этого десктопного Эльбруса. Хотелось бы ещё увидеть не только абсолютные цифры результатов тестов, а в пересчёте на ватт потребляемой мощности. Для серверов это очень важно.

      • Neo28
        /#24000245 / +4

        В серверах важна не только производительность на ватт, но и скалируемость. У арма с этим печалька. Поэтому истории арм для серверов уже лет 10, но пока это узкоспециализированные решения

        • Layan
          /#24000763

          Почему узкоспециализированные то? Тот же AWS с Graviton очень даже неплох. Мы довольно быстро на него перешли — дешевле и производительнее получилось. Софт, в основном, уже собран под ARM. Да и собрать тоже не проблема.

          • Neo28
            /#24000861 / +2

            Амазон переработал заметную часть стека софтового под арм, они себе это могут позволить при их объемах.

            • Layan
              /#24001093

              Но ведь тот софт, что они переработали вполне можно использовать и на других ARM. Так, даже наш софт собирается под ARM и используется и на серверах, и на ноутбуках разработчиков с Apple M1.

              • Neo28
                /#24002957

                Скорее всего амазоновский софт можно пользовать на других армах, только не уверен что амазон все в опен сорс выложил)). И между "можно собрать и пользовать" и "работает хорошо и эффективно" есть большая разница) Не зря же целая индустрия существует, когда опенсорс допиливают и саппортят. Красная шапка вполне приличную кучку денег на этом зарабатывает)

      • Am0ralist
        /#24000933 / +4

        Смотреть лучше в сторону ARM, Apple не даст соврать.
        АРМ зависит от лицензий. Например, лицензии самого арма запрещать могут их использовать в силовых ведомствах и т.п.
        И смысл? Мы не китайцы, чтоб выкрутить руки арму и создать независимую от него дочку по сбору лицензионных бабок.
        И смысл смотреть на них? Либо «опенсорс», либо велосипед…

        • nixtonixto
          /#24001041 / -2

          Я на 99% уверен, что в российских реалиях «опенсорс» или велосипед окажутся такими же провальными затеями, как Йотафон, Марусся, лунная база… И в лучшем случае его будут так же, как в этой статье, сравнивать с 10...15-летними не-флагманскими моделями Интел. ИМХО более-менее конкурентоспособный процессор в России можно собрать, если брать Актуальные ядра ARM и обвешивать их своими IP, PHY и логикой. Процессор нужен не только оборонке, поэтому для гражданки вполне реально лицензировать ядра и собрать камень в разумные сроки.

      • anka007
        /#24001223 / +1

        На армах сложно состыковать требования вояк с требованиями лицензии арма. Сейчас вояки больше специализированные отечественные мипсы потребляют, но крупномощного на них ничего нет, насколько я знаю.

        • amartology
          /#24005811

          Вояки всю дорогу прекрасно потребляли не только отечественные ARM, но и скажем, процессоры Intel.

          отечественные мипсы потребляют, но крупномощного на них ничего нет, насколько я знаю.
          Неправильно знаете)

    • Paskin
      /#24007525

      Думаю, что если "числодробление" скомпилировать Интеловским компилятором - результаты i7 будут гораздо выше. А есть еще оптимизированные математические библиотеки, интринсики и т.п.

  4. toxano
    /#23998283 / +1

    Можете уточнить про Geekbench. Там сравнение одного i7 2600 против двух 16С?

    • EntityFX
      /#23998311

      Нет, это глюк распознавания проца, там 1 проц в бинарной трансляции, Geekbench падал, пришлось прокинуть ему кастомный /proc/cpuinfo.

  5. Extravert34
    /#23998291 / +6

    Выложите пожалуйста тесты на openbenchmarking.org. Там регулярно выкладываются бенчмарки разных экзотических (и не очень) процессоров, будет интересно сравнить.

  6. EntityFX
    /#23998293 / +2

    Кому интересно как посчитать теоретические FLOPS:

    How calculate FLOPS (v1 .. v3):

    Single Precision: 4 FP ALUs * 4 Single operation * Cores * Frequency
    Double Precision: 4 FP ALUs * 2 Double operation * Cores * Frequency

    How calculate FLOPS (v4):

    Single Precision: 6 FP ALUs * 4 Single operation * Cores * Frequency
    Double Precision: 6 FP ALUs * 2 Double operation * Cores * Frequency

    How calculate FLOPS (v5+ [128 bit SIMD]):

    Single Precision: 6 FP ALUs * 4 Single operation * 2 SIMD * Cores * Frequency
    Double Precision: 6 FP ALUs * 2 Double operation * 2 SIMD * Cores * Frequency

    Example for Elbrus-16C: 6 ALUs * 2 DP * 2 * 16 Cores * 2e9 = 7.68e11 --> 768 GFlops FP64

  7. V1tol
    /#23998299 / +4

    Интернет говорит, что в 16С аж целых 8 каналов памяти. Думаю, что 2 планки очень сильно ограничивают некоторые результаты.

    • EntityFX
      /#23998327 / +1

      Да, верно, но столько установлено, а поменять конфигурацию памяти я не могу =, работал удалённо.

      • toxano
        /#23998355 / +2

        Может один удаленный образец, дадут сообществу на растерзание. Все сами соберём и проверим

    • EntityFX
      /#23998329

      Добавлю позже в описание про тип и каналы памяти.

    • EntityFX
      /#23998341

      Уточнил: там 2 плашки KSM24RD4/32MEI по 32 Гига.

  8. VLev
    /#23998419 / +1

    Не нашёл log-ов SPEC2006.

    Как именно в нём тестировалось?

    • EntityFX
      /#23998423

      Это уже МЦСТшные цифры, купить тест не могу, хотя на нём они тестируют перфу компилятора.

  9. Armmaster
    /#23998435 / +1

    Java

    1 поток:

    ...

    Эльбрус 16С в 1,7 раз медленнее на 1 поток чем Core i7 2600

    А можно уточнить, как цифра 1.7 получилась? Просто я смотрю в результаты замеров на Джаве и вижу там другие результаты. Да и чисто из понимания теории, такой результат на Э16С выглядит крайне сомнительным.

  10. VLev
    /#23998449 / +1

    Whetstone...

    Эльбрус-16С показывает результаты кратные частоте (2000 / 1500).

    вообще-то 1831/1723=1.06 -- какая-то ошибка, вероятно

    по крайней мере

    42467/16495/2=1.29
    это уже ближе к 2000/1500=1.3(3)

    • EntityFX
      /#23998465

      Повторно перепроверю, поиграюсь флагами.

  11. wigneddoom
    /#23998491 / +2

    Астрологи объявили неделю эльбрусов...

    Baikal-S конечно интереснее выглядит.

    • perfect_genius
      /#24001515 / +2

      Чем он интереснее других ARM-процессоров?

      • JerleShannara
        /#24001533 / +2

        Тем, что его ещё как-то можно провести под лозунгом «Сделано в РФ».

      • amartology
        /#24001977 / +3

        Чем он интереснее других ARM-процессоров?
        И много вы знаете других 48-ядерных ARM-процессоров?
        Не говоря уже о том, что Байкал-S не должен быть интереснее других ARM-процессоров, он должен быть интереснее конкретно вот этого Эльбруса.

        • lumag
          /#24002335 / +2

          Cavium/Marvell ThunderX/ ThunderX2 и т.д.

          • Am0ralist
            /#24004285

            Эм, ну так они как вышли, так и всё… А на рынке то сейчас пойти купить что-то можно спокойно продукцию с подобными кому угодно?
            Если даже такие новости считаются за инновации.

        • wigneddoom
          /#24006059

          В точку. Что у Байкал, что у Эльбрус только одно "конкурентное" преимущество - проходят под лозунгом "Сделано в РФ". Только у первого готовая экосистема софта и выше производительность.

          Что касается других 48-х ARM. У нас на тестах был сервер Хуавей с их KunPeng 920 (48C, 2.6 GHz), вполне приличная машинка. Поэтому если Байкаловцы не врут, и Байкал S сможет работать на 2,5 GHz и производительность будет на уровне 0,7 KunPeng 920 или примерно Intel Xeon Gold 6148, то с этим уже можно работать.

          Тут главное как у них пойдёт с поставками и что их партнёры смогут предложить в виде готового продукта.

  12. evil_kabab
    /#23998649 / +11

    Заходил на сайт мцст пару дней назад. У них нет SSL сертификата. Не то чтобы он просрочен или ещё чего, его там просто нет! Печатаешь https: и вываливается ошибка сервера...

    Не думаю что это влияет на производительность их цпу, просто наблюдение...

    • EntityFX
      /#23998687 / +1

      Да, надо им сказать. Let's Encrypt пусть поставят.

      • ogregor
        /#23998957 / -8

        Давно в кубер пора заворачивать. Сейчас даже школьник это делать умеет.

    • KGeist
      /#23998761 / +75

      Зашел на сайт разработчика сайта - у самих нет сертификата. Прошелся по кейсам клиентов - у половины тоже нет, при том что где-то есть вход/регистрация. Заинтересовало, откуда такая странная студия появилась. Выяснил, что их руководитель - юрист, который делал детский сайт о президенте на на kremlin.ru, сайт о патриархе Кирилле, в основном православные проекты. Сама студия названа в честь арабского правителя 6 века Арефы Эфиопского, которого в одной из войн сжёг омиритский царь-иудей Дунаан. В какой-то момент, читая википедию о христианских великомучениках, я задумался, "а при чем тут, собственно, процессоры Эльбрус", и прекратил исследование :)

      • IGR2014
        /#24000849 / +6

        М'сье знает толк в исследованиях!)

    • Akr0n
      /#23999275 / +1

      Сейчас как воткнут ГОСТовый, вообще мало, кто зайдет на сайт.

      • CodeHolder
        /#24001111 / +3

        Будем продвигать хромиум-гост в массы.

  13. liano
    /#23998783 / +2

    Сколько времени занимает компиляция Linux ядра?

  14. forthuser
    /#23998887 / +2

    Жду ваши предложения, какие ещё бенчмарки можно прогнать на этих компьютерах

    А, проверьте, если не сложно такой «тест»
    vectorforth (SIMD vectorized Forth compiler with CPU based shader application)

    • EntityFX
      /#23999851

      Словил ошибки компиляции
       line 7861: error #350:
                more than one operator "*" matches these operands:
                  function template
                            "jtk::Expr<jtk::BinExprOp<jtk::Constant<T>, jtk::matrix<T, Container>::const_iterator, jtk::OpMul                                                                                                                      <jtk::gettype<T, T2>::ty>>> jtk::operator*(T2, const jtk::matrix<T, Container> &)"
                  function template
                            "jtk::matrix<double, Container> jtk::symmetric_sparse_matrix_wrapper<T>::operator*(const jtk::mat                                                                                                                      rix<double, Container> &) const [with T=double]"
                  operand types are: const
                            jtk::symmetric_sparse_matrix_wrapper<double> *
                            jtk::matrix<double, std::vector<double,
                            std::allocator<double>>>
            matrix<T, Container> r = b - A * out;
                                           ^
                detected during:
                  instantiation of
                            "void jtk::preconditioned_conjugate_gradient(jtk::matrix<T, Container> &, T &, uint32_t &, const                                                                                                                       jtk::symmetric_sparse_matrix_wrapper<T> &, const TPreconditioner &, const jtk::matrix<T, Container> &, const jtk::matri                                                                                                                      x<T, Container> &, T) [with T=double, Container=std::vector<double, std::allocator<double>>, TPreconditioner=jtk::diago                                                                                                                      nal_preconditioner<double>]"
                            at line 7917
                  instantiation of
                            "void jtk::conjugate_gradient(jtk::matrix<T, Container> &, T &, uint32_t &, const jtk::symmetric_                                                                                                                      sparse_matrix_wrapper<T> &, const jtk::matrix<T, Container> &, const jtk::matrix<T, Container> &, T) [with T=double, Co                                                                                                                      ntainer=std::vector<double, std::allocator<double>>]"
                            at line 4739 of
                            "/root/vectorforth/jtk/jtk.tests/mat_tests.cpp"
      
      lcc: "/root/vectorforth/jtk/jtk.tests/../jtk/mat.h", line 7861: error #350:
                more than one operator "*" matches these operands:
                  function template
                            "jtk::Expr<jtk::BinExprOp<jtk::Constant<T>, jtk::matrix<T, Container>::const_iterator, jtk::OpMul                                                                                                                      <jtk::gettype<T, T2>::ty>>> jtk::operator*(T2, const jtk::matrix<T, Container> &)"
                  function template
                            "jtk::matrix<float, Container> jtk::symmetric_sparse_matrix_wrapper<T>::operator*(const jtk::matr                                                                                                                      ix<float, Container> &) const [with T=float]"
                  operand types are: const
                            jtk::symmetric_sparse_matrix_wrapper<float> *
                            jtk::matrix<float, std::vector<float,
                            std::allocator<float>>>
            matrix<T, Container> r = b - A * out;
                                           ^
                detected during instantiation of
                          "void jtk::preconditioned_conjugate_gradient(jtk::matrix<T, Container> &, T &, uint32_t &, const jt                                                                                                                      k::symmetric_sparse_matrix_wrapper<T> &, const TPreconditioner &, const jtk::matrix<T, Container> &, const jtk::matrix<                                                                                                                      T, Container> &, T) [with T=float, Container=std::vector<float, std::allocator<float>>, TPreconditioner=jtk::diagonal_p                                                                                                                      reconditioner<float>]"
                          at line 4773 of
                          "/root/vectorforth/jtk/jtk.tests/mat_tests.cpp"
      
      lcc: "/opt/mcst/lcc-home/1.25.17/e2k-v5-linux/include/smmintrin.h", line 155: warning #1444:
                function "__builtin_ia32_dpps" (declared at line 3929 of
                "/opt/mcst/lcc-home/1.25.17/e2k-v5-linux/include/e2kbuiltin.h") was
                declared deprecated
                ("The function may be slow due to inefficient implementation, please try to avoid it")
                [-Wdeprecated-declarations]
          ((__m128) __builtin_ia32_dpps ((__v4sf)(__m128)(X),                   \
                    ^
       in expansion of macro "_mm_dp_ps" at line 5318 of
                 "/root/vectorforth/jtk/jtk.tests/../jtk/mat.h"
              __m128 d = _mm_dp_ps(v1, v2, 0xf1);
                         ^
                detected during instantiation of
                          "void jtk::preconditioned_conjugate_gradient(jtk::matrix<T, Container> &, T &, uint32_t &, const jt                                                                                                                      k::symmetric_sparse_matrix_wrapper<T> &, const TPreconditioner &, const jtk::matrix<T, Container> &, const jtk::matrix<                                                                                                                      T, Container> &, T) [with T=float, Container=std::vector<float, std::allocator<float>>, TPreconditioner=jtk::diagonal_p                                                                                                                      reconditioner<float>]"
                          at line 4773 of
                          "/root/vectorforth/jtk/jtk.tests/mat_tests.cpp"
      
      2 errors detected in the compilation of "/root/vectorforth/jtk/jtk.tests/mat_tests.cpp".
      make[2]: *** [jtk/jtk.tests/CMakeFiles/jtk.tests.dir/build.make:132: jtk/jtk.tests/CMakeFiles/jtk.tests.dir/mat_tests.c

  15. Krey
    /#23999001 / +1

    Спасибо за ваш труд по портированию и тестам. Слежу с момента как узнал о вас в ролике Д. Бачило.

    • EntityFX
      /#23999753

      Да, Дмитрия обожаю, смотрю все его выпуски с 2014го.

  16. aborouhin
    /#23999037 / +11

    Вот интересно, почему для сравнения выбран Core i7-2600 10-летней давности, у которого ядер меньше в 4 раза, потоков - в 2, память работает на в 2 с лишним раза меньшей частоте... Если уж мы оцениваем процессор 2021 года, давайте и возьмём в качестве конкурента какой-нибудь 11700K, хотя бы. А лучше, если потом ещё результаты тестов соотнести со стоимостью процессора - сколько производительности мы получаем на доллар/рубль.

    • red_andr
      /#23999115 / +8

      Ну так будет совсем не честно! Кстати, техпроцесс тоже в два раза отличается. И да, разница более чем в десять лет. Core i7-2600 был запущен в продажу в январе 2011, а Эльбрус 16С, как видим, до сих пор доступен только в инженерных образцах. В серию хорошо если пойдёт к началу 2023 года, то есть будет уже 12 лет.

    • gshep
      /#23999597 / +4

      наверное просто потому, что у автора тестирования под рукой есть только Core i7-2600. Я предполагаю, что если вы - или кто-либо другой - погоняют эти же самые тесты на упомянутом 11700K или Райзене, то автор добавит эти результаты в статью.

    • PsihXMak
      /#23999715

      Вот мне тоже интересно. Уже столько статей вышло и ни в одной нет сравнения с акутальными моделями.

    • EntityFX
      /#23999757 / +2

      У меня есть только Core i7 2600 из самых мощных компов, работаю с ним уже 10 лет и все до сих пор летает (веб, разработка, игры не играю).

      • yamabusi
        /#24001271 / +1

        Очевидно конкретно в тесте Blender важнее многопоточность если E5-2620 v2 сделал Core i7 2600,нежели ГГц,с другой стороны у Elbrus 16C 16 ядер.

      • BkmzSpb
        /#24004735

        Недавно отправил на пенсию 2700K и заменил на 11700KF. Сразу предупреждаю, запускал на Windows как есть (чистое окружение не готовил). Имею проблемы с охлаждение, по моим прикидкам теряю примерно 1% частоты (0.05 ГГц) при продолжительной пиковой нагрузке.

        Дотнетовский бенчмарк у меня один раз выпал с ArgumentOutOfRangeException при досутпе к какой-то коллекции. В остальные два раза 24 тест у меня просто не отрабатывал -- 0 загрузки CPU и 0 прогресса. Что-то странное с бенчмарком на сравнение строк параллельно -- потребляет не более 20% CPU cycles, возможно там какой-то data race происходит (либо может это IO-bound/GC-heavy, но я не заметил ни давления на память ни доступа к диску). На джаве параллельные строки работали действительно праллельно с загрузкой в 100%.

        Т.к. в джаве не шарю, запустил бинарник "как есть".

        Возможно я что-то еще делаю не так, но тест блендера занял у меня 22 секунды.

        & 'C:\Program Files\Blender Foundation\Blender 3.0\blender.exe' -b RyzenGraphic_27.blend  -f 1 -- --cycles-device CPU.log
        Бенчмарк Blender
        Blender 3.0.1 (hash dc2d18018171 built 2022-01-26 01:46:57)
        Read blend: C:\Users\[redacted]\Downloads\RyzenGraphic_27.blend
        Fra:1 Mem:63.36M (Peak 65.44M) | Time:00:00.04 | Mem:0.00M, Peak:0.00M | Scene, RenderLayer | Synchronizing object | Plane.006
        Fra:1 Mem:63.37M (Peak 65.44M) | Time:00:00.04 | Mem:0.00M, Peak:0.00M | Scene, RenderLayer | Synchronizing object | Plane.005
        Fra:1 Mem:63.37M (Peak 65.44M) | Time:00:00.04 | Mem:0.00M, Peak:0.00M | Scene, RenderLayer | Synchronizing object | Plane.003
        Fra:1 Mem:63.37M (Peak 65.44M) | Time:00:00.04 | Mem:0.00M, Peak:0.00M | Scene, RenderLayer | Synchronizing object | Plane.001
        Fra:1 Mem:63.37M (Peak 65.44M) | Time:00:00.04 | Mem:0.00M, Peak:0.00M | Scene, RenderLayer | Synchronizing object | Curve.002
        Fra:1 Mem:63.38M (Peak 65.44M) | Time:00:00.04 | Mem:0.00M, Peak:0.00M | Scene, RenderLayer | Synchronizing object | chip_master pin_001 pin_grp372.001
        Fra:1 Mem:63.40M (Peak 65.44M) | Time:00:00.04 | Mem:0.00M, Peak:0.00M | Scene, RenderLayer | Synchronizing object | chip_master gold_plane.001
        Fra:1 Mem:63.40M (Peak 65.44M) | Time:00:00.04 | Mem:0.00M, Peak:0.00M | Scene, RenderLayer | Synchronizing object | chip_master numbers.001
        Fra:1 Mem:65.56M (Peak 65.95M) | Time:00:00.05 | Mem:0.00M, Peak:0.00M | Scene, RenderLayer | Synchronizing object | chip_master D_letter.001
        Fra:1 Mem:64.84M (Peak 65.95M) | Time:00:00.05 | Mem:0.00M, Peak:0.00M | Scene, RenderLayer | Synchronizing object | chip_master middle_layer.001
        Fra:1 Mem:65.05M (Peak 65.95M) | Time:00:00.05 | Mem:0.00M, Peak:0.00M | Scene, RenderLayer | Synchronizing object | black_glue chip_master.001
        Fra:1 Mem:65.47M (Peak 65.95M) | Time:00:00.05 | Mem:0.00M, Peak:0.00M | Scene, RenderLayer | Synchronizing object | chip_master top_layer.001
        Fra:1 Mem:65.78M (Peak 65.95M) | Time:00:00.05 | Mem:0.00M, Peak:0.00M | Scene, RenderLayer | Synchronizing object | chip_master gold_plane_back.001
        Fra:1 Mem:65.79M (Peak 65.95M) | Time:00:00.05 | Mem:0.00M, Peak:0.00M | Scene, RenderLayer | Synchronizing object | chip_master heat_spreader.001
        Fra:1 Mem:66.48M (Peak 66.48M) | Time:00:00.05 | Mem:0.00M, Peak:0.00M | Scene, RenderLayer | Synchronizing object | chip_master bottom_layer.001
        Fra:1 Mem:66.09M (Peak 67.06M) | Time:00:00.05 | Mem:0.00M, Peak:0.00M | Scene, RenderLayer | Synchronizing object | Plane.004
        Fra:1 Mem:64.23M (Peak 67.06M) | Time:00:00.05 | Mem:0.00M, Peak:0.00M | Scene, RenderLayer | Initializing
        Fra:1 Mem:58.38M (Peak 67.06M) | Time:00:00.05 | Mem:0.00M, Peak:0.00M | Scene, RenderLayer | Updating Images | Loading Enso.png
        Fra:1 Mem:58.38M (Peak 67.06M) | Time:00:00.05 | Mem:0.00M, Peak:0.00M | Scene, RenderLayer | Updating Images | Loading summitRidge_color.jpg
        Fra:1 Mem:295.96M (Peak 826.42M) | Time:00:00.47 | Mem:256.00M, Peak:256.00M | Scene, RenderLayer | Waiting for render to start
        Fra:1 Mem:295.96M (Peak 826.42M) | Time:00:00.47 | Mem:256.00M, Peak:256.00M | Scene, RenderLayer | Loading render kernels (may take a few minutes the first time)
        Fra:1 Mem:295.96M (Peak 826.42M) | Time:00:00.47 | Mem:256.00M, Peak:256.00M | Scene, RenderLayer | Updating Scene
        Fra:1 Mem:295.96M (Peak 826.42M) | Time:00:00.47 | Mem:256.00M, Peak:256.00M | Scene, RenderLayer | Updating Shaders
        Fra:1 Mem:296.47M (Peak 826.42M) | Time:00:00.48 | Mem:256.01M, Peak:256.01M | Scene, RenderLayer | Updating Procedurals
        Fra:1 Mem:296.47M (Peak 826.42M) | Time:00:00.48 | Mem:256.01M, Peak:256.01M | Scene, RenderLayer | Updating Background
        Fra:1 Mem:296.47M (Peak 826.42M) | Time:00:00.48 | Mem:256.01M, Peak:256.01M | Scene, RenderLayer | Updating Camera
        Fra:1 Mem:296.47M (Peak 826.42M) | Time:00:00.48 | Mem:256.01M, Peak:256.01M | Scene, RenderLayer | Updating Meshes Flags
        Fra:1 Mem:296.47M (Peak 826.42M) | Time:00:00.48 | Mem:256.01M, Peak:256.01M | Scene, RenderLayer | Updating Objects
        Fra:1 Mem:296.47M (Peak 826.42M) | Time:00:00.48 | Mem:256.01M, Peak:256.01M | Scene, RenderLayer | Updating Objects | Copying Transformations to device
        Fra:1 Mem:296.75M (Peak 826.42M) | Time:00:00.48 | Mem:256.27M, Peak:256.27M | Scene, RenderLayer | Updating Objects | Applying Static Transformations
        Fra:1 Mem:296.75M (Peak 826.42M) | Time:00:00.48 | Mem:256.27M, Peak:256.27M | Scene, RenderLayer | Updating Particle Systems
        Fra:1 Mem:296.75M (Peak 826.42M) | Time:00:00.48 | Mem:256.27M, Peak:256.27M | Scene, RenderLayer | Updating Particle Systems | Copying Particles to device
        Fra:1 Mem:296.75M (Peak 826.42M) | Time:00:00.48 | Mem:256.27M, Peak:256.27M | Scene, RenderLayer | Updating Meshes
        Fra:1 Mem:297.11M (Peak 826.42M) | Time:00:00.48 | Mem:256.27M, Peak:256.27M | Scene, RenderLayer | Updating Mesh | Computing attributes
        Fra:1 Mem:297.24M (Peak 826.42M) | Time:00:00.48 | Mem:256.27M, Peak:256.27M | Scene, RenderLayer | Updating Mesh | Copying Attributes to device
        Fra:1 Mem:297.16M (Peak 826.42M) | Time:00:00.48 | Mem:256.33M, Peak:256.33M | Scene, RenderLayer | Updating Geometry BVH chip_master pin_001 pin_grp1848.001 1/1 | Building BVH
        Fra:1 Mem:297.16M (Peak 826.42M) | Time:00:00.48 | Mem:256.35M, Peak:256.35M | Scene, RenderLayer | Updating Geometry BVH chip_master pin_001 pin_grp1848.001 1/1 | Building BVH 0%
        Fra:1 Mem:297.16M (Peak 826.42M) | Time:00:00.48 | Mem:256.34M, Peak:256.36M | Scene, RenderLayer | Updating Scene BVH | Building
        Fra:1 Mem:297.17M (Peak 826.42M) | Time:00:00.48 | Mem:256.34M, Peak:256.36M | Scene, RenderLayer | Updating Scene BVH | Building BVH
        Fra:1 Mem:297.17M (Peak 826.42M) | Time:00:00.49 | Mem:257.67M, Peak:258.67M | Scene, RenderLayer | Updating Scene BVH | Copying BVH to device
        Fra:1 Mem:297.17M (Peak 826.42M) | Time:00:00.49 | Mem:257.67M, Peak:258.67M | Scene, RenderLayer | Updating Mesh | Computing normals
        Fra:1 Mem:299.10M (Peak 826.42M) | Time:00:00.49 | Mem:257.67M, Peak:258.67M | Scene, RenderLayer | Updating Mesh | Copying Mesh to device
        Fra:1 Mem:299.10M (Peak 826.42M) | Time:00:00.49 | Mem:259.59M, Peak:259.59M | Scene, RenderLayer | Updating Objects Flags
        Fra:1 Mem:299.10M (Peak 826.42M) | Time:00:00.49 | Mem:259.60M, Peak:259.60M | Scene, RenderLayer | Updating Images
        Fra:1 Mem:299.10M (Peak 826.42M) | Time:00:00.49 | Mem:259.60M, Peak:259.60M | Scene, RenderLayer | Updating Camera Volume
        Fra:1 Mem:299.10M (Peak 826.42M) | Time:00:00.49 | Mem:259.60M, Peak:259.60M | Scene, RenderLayer | Updating Lookup Tables
        Fra:1 Mem:299.10M (Peak 826.42M) | Time:00:00.49 | Mem:259.85M, Peak:259.85M | Scene, RenderLayer | Updating Lights
        Fra:1 Mem:299.10M (Peak 826.42M) | Time:00:00.49 | Mem:259.85M, Peak:259.85M | Scene, RenderLayer | Updating Lights | Computing distribution
        Fra:1 Mem:299.10M (Peak 826.42M) | Time:00:00.49 | Mem:259.85M, Peak:259.85M | Scene, RenderLayer | Updating Integrator
        Fra:1 Mem:299.10M (Peak 826.42M) | Time:00:00.49 | Mem:259.86M, Peak:259.86M | Scene, RenderLayer | Updating Film
        Fra:1 Mem:299.11M (Peak 826.42M) | Time:00:00.49 | Mem:259.61M, Peak:259.86M | Scene, RenderLayer | Updating Lookup Tables
        Fra:1 Mem:299.11M (Peak 826.42M) | Time:00:00.49 | Mem:259.87M, Peak:259.87M | Scene, RenderLayer | Updating Baking
        Fra:1 Mem:299.11M (Peak 826.42M) | Time:00:00.49 | Mem:259.87M, Peak:259.87M | Scene, RenderLayer | Updating Device | Writing constant memory
        Fra:1 Mem:299.13M (Peak 826.42M) | Time:00:00.49 | Mem:259.87M, Peak:259.87M | Scene, RenderLayer | Sample 0/150
        Fra:1 Mem:311.38M (Peak 826.42M) | Time:00:00.64 | Remaining:00:22.91 | Mem:272.09M, Peak:272.09M | Scene, RenderLayer | Sample 1/150
        Fra:1 Mem:323.59M (Peak 826.42M) | Time:00:21.32 | Mem:272.09M, Peak:272.09M | Scene, RenderLayer | Sample 150/150
        Fra:1 Mem:323.59M (Peak 826.42M) | Time:00:21.32 | Mem:272.09M, Peak:272.09M | Scene, RenderLayer | Finished
        Saved: 'C:\tmp\0001.png'
         Time: 00:21.93 (Saving: 00:00.57)
        
        
        Blender quit
        
        dotnet 6.0
        Warmup
        ........................
        Bench
        [1] ArithemticsBenchmark
        ArithemticsBenchmark                   939.62 ms        9578.35 pts   319279093.35 Iter/s
        Iterrations:       300000000, Ratio:            0.03
        [2] ParallelArithemticsBenchmark
        ParallelArithemticsBenchmark          2048.15 ms       71348.99 pts   146473632.65 Iter/s
        Iterrations:       300000000, Ratio:            0.03
        [3] MathBenchmark
        MathBenchmark                         8839.98 ms       11312.24 pts    22624489.41 Iter/s
        Iterrations:       200000000, Ratio:             0.5
        [4] ParallelMathBenchmark
        ParallelMathBenchmark                16034.94 ms      101111.87 pts    12472762.22 Iter/s
        Iterrations:       200000000, Ratio:             0.5
        [5] CallBenchmark
        CallBenchmark                         5052.00 ms        1980.57 pts   198056609.13 Iter/s
        Iterrations:      2000000000, Ratio:            0.01
        [6] ParallelCallBenchmark
        ParallelCallBenchmark                10741.28 ms       30260.08 pts   186197518.68 Iter/s
        Iterrations:      2000000000, Ratio:            0.01
        [7] IfElseBenchmark
        IfElseBenchmark                       2439.66 ms        8197.86 pts   819786229.26 Iter/s
        Iterrations:      2000000000, Ratio:            0.01
        [8] ParallelIfElseBenchmark
        ParallelIfElseBenchmark               2700.96 ms      125556.16 pts   740478063.00 Iter/s
        Iterrations:      2000000000, Ratio:            0.01
        [9] StringManipulation
        StringManipulation                    3450.07 ms       14492.44 pts     1449246.34 Iter/s
        Iterrations:         5000000, Ratio:              10
        [10] ParallelStringManipulation
        ParallelStringManipulation           78165.57 ms       10256.57 pts       63966.79 Iter/s
        Iterrations:         5000000, Ratio:              10
        [11] MemoryBenchmark
        MemoryBenchmark                       1277.64 ms       22872.52 pts       22872.52 MB/s
        Iterrations:          500000, Ratio:               1
        [12] ParallelMemoryBenchmark
        ParallelMemoryBenchmark              12719.73 ms      181774.73 pts      181774.73 MB/s
        Iterrations:          500000, Ratio:               1
        [13] RandomMemoryBenchmark
        RandomMemoryBenchmark                 2350.07 ms       18237.67 pts        9118.84 MB/s
        Iterrations:          500000, Ratio:               2
        [14] ParallelRandomMemoryBenchmark
        ParallelRandomMemoryBenchmark         5549.28 ms      251701.26 pts      125850.63 MB/s
        Iterrations:          500000, Ratio:               2
        [15] Scimark2Benchmark
        Scimark2Benchmark                    16709.78 ms       11746.67 pts        1174.67 CompositeScore
        Iterrations:               0, Ratio:              10
        [16] ParallelScimark2Benchmark
        ParallelScimark2Benchmark            15436.11 ms      119686.33 pts       11968.63 CompositeScore
        Iterrations:               0, Ratio:              10
        [17] DhrystoneBenchmark
        DhrystoneBenchmark                    1348.17 ms       34053.50 pts        8513.38 DMIPS
        Iterrations:               0, Ratio:               4
        [18] ParallelDhrystoneBenchmark
        ParallelDhrystoneBenchmark            3000.43 ms      245741.61 pts       61435.40 DMIPS
        Iterrations:               0, Ratio:               4
        [19] WhetstoneBenchmark
        WhetstoneBenchmark                  109342.94 ms        7165.07 pts        7165.07 MWIPS
        Iterrations:               0, Ratio:               1
        [20] ParallelWhetstoneBenchmark
        ParallelWhetstoneBenchmark          110528.07 ms      103971.71 pts      103971.71 MWIPS
        Iterrations:               0, Ratio:               1
        [21] LinpackBenchmark
        LinpackBenchmark                      2483.89 ms       22565.84 pts        2256.58 MFLOPS
        Iterrations:               0, Ratio:              10
        [22] ParallelLinpackBenchmark
        ParallelLinpackBenchmark             17634.09 ms        5080.34 pts        5080.34 MFLOPS
        Iterrations:               0, Ratio:              10
        [23] HashBenchmark
        HashBenchmark                         2158.10 ms        9267.41 pts      926743.69 Iter/s
        Iterrations:         2000000, Ratio:              10
        Java openjdk version "1.8.0_292"
        Warmup
        ........................
        Bench
        [1] ArithemticsBenchmark
        ArithemticsBenchmark                      872 ms     10321.08 pts   344036697.25 Iter/s
        Iterrations:       300000000, Ratio:        0.030000
        [2] ParallelArithemticsBenchmark
        ParallelArithemticsBenchmark             2447 ms     58876.02 pts  1962538061.39 Iter/s
        Iterrations:       300000000, Ratio:        0.030000
        [3] MathBenchmark
        MathBenchmark                           90900 ms      1100.00 pts     2200220.02 Iter/s
        Iterrations:       200000000, Ratio:        0.500000
        [4] ParallelMathBenchmark
        ParallelMathBenchmark                  135701 ms     11940.00 pts    23888908.06 Iter/s
        Iterrations:       200000000, Ratio:        0.500000
        [5] CallBenchmark
        Elapsed No Call: 0
        Elapsed Call: 4968
        CallBenchmark                            4968 ms      4024.14 pts   402414486.92 Iter/s
        Iterrations:      2000000000, Ratio:        0.010000
        [6] ParallelCallBenchmark
        ParallelCallBenchmark                    5285 ms     61852.27 pts  6185233887.08 Iter/s
        Iterrations:      2000000000, Ratio:        0.010000
        [7] IfElseBenchmark
        IfElseBenchmark                          1243 ms     16090.10 pts  1609010458.57 Iter/s
        Iterrations:      2000000000, Ratio:        0.010000
        [8] ParallelIfElseBenchmark
        ParallelIfElseBenchmark                  2579 ms    127079.06 pts 12707911543.49 Iter/s
        Iterrations:      2000000000, Ratio:        0.010000
        [9] StringManipulation
        StringManipulation                       6487 ms      7700.00 pts      770772.31 Iter/s
        Iterrations:         5000000, Ratio:       10.000000
        [10] ParallelStringManipulation
        ParallelStringManipulation              18905 ms     42680.00 pts     4275397.06 Iter/s
        Iterrations:         5000000, Ratio:       10.000000
        [11] MemoryBenchmark
        int 4k: 24112.65 MB/s
        int 512k: 21943.82 MB/s
        int 8M: 20989.25 MB/s
        int 32M: 16827.59 MB/s
        long 4k: 47063.25 MB/s
        long 512k: 34566.37 MB/s
        long 8M: 23100.59 MB/s
        long 32M: 21810.06 MB/s
        Average: 26301.70 MB/s
        MemoryBenchmark                           955 ms     26301.70 pts       26301.70 MB/s
        Iterrations:          500000, Ratio:        1.000000
        [12] ParallelMemoryBenchmark
        ParallelMemoryBenchmark                  5413 ms    147934.36 pts      147934.36 MB/s
        Iterrations:          500000, Ratio:        1.000000
        [13] RandomMemoryBenchmark
        Random int 4k: 17918.58 MB/s
        Random int 512k: 17594.59 MB/s
        Random int 8M: 16973.91 MB/s
        Random long 4k: 36168.98 MB/s
        Random long 512k: 34875.00 MB/s
        Random long 8M: 33367.52 MB/s
        Average: 26149.76 MB/s
        RandomMemoryBenchmark                     687 ms     52299.53 pts       26149.76 MB/s
        Iterrations:          500000, Ratio:        2.000000
        [14] ParallelRandomMemoryBenchmark
        ParallelRandomMemoryBenchmark            2411 ms    331520.67 pts      165760.33 MB/s
        Iterrations:          500000, Ratio:        2.000000
        [15] Scimark2Benchmark
        Scimark2Benchmark                       34367 ms     31676.80 pts        3167.68 CompositeScore
        Iterrations:               0, Ratio:       10.000000
        [16] ParallelScimark2Benchmark
        ParallelScimark2Benchmark               27409 ms    314022.20 pts       31402.22 CompositeScore
        Iterrations:               0, Ratio:       10.000000
        [17] DhrystoneBenchmark
        DhrystoneBenchmark                        295 ms    157004.00 pts       39251.00 DMIPS
        Iterrations:               0, Ratio:        4.000000
        [18] ParallelDhrystoneBenchmark
        ParallelDhrystoneBenchmark               1127 ms    741844.00 pts      185461.00 DMIPS
        Iterrations:               0, Ratio:        4.000000
        [19] WhetstoneBenchmark
        WhetstoneBenchmark                      31267 ms      1591.34 pts        1591.34 MWIPS
        Iterrations:               0, Ratio:        1.000000
        [20] ParallelWhetstoneBenchmark
        ParallelWhetstoneBenchmark              32012 ms     22219.28 pts       22219.28 MWIPS
        Iterrations:               0, Ratio:        1.000000
        [21] LinpackBenchmark
        LinpackBenchmark                         1345 ms     42190.63 pts        4219.06 MFLOPS
        Iterrations:               0, Ratio:       10.000000
        [22] ParallelLinpackBenchmark
        ParallelLinpackBenchmark                16789 ms     51935.02 pts        5193.50 MFLOPS
        Iterrations:               0, Ratio:       10.000000
        [23] HashBenchmark
        HashBenchmark                            1290 ms     15500.00 pts     1550387.60 Iter/s
        Iterrations:         2000000, Ratio:       10.000000
        [24] ParallelHashBenchmark
        ParallelHashBenchmark                   13803 ms     23830.00 pts     2392870.31 Iter/s
        Iterrations:         2000000, Ratio:       10.000000
        
        Total:                                 438557 ms   2301532.18 pts
        
        Single-thread results
        Operating System,Runtime,Threads Count,Memory Used,ArithemticsBenchmark,MathBenchmark,CallBenchmark,IfElseBenchmark,StringManipulation,MemoryBenchmark,RandomMemoryBenchmark,ParallelRandomMemoryBenchmark,Scimark2Benchmark,DhrystoneBenchmark,WhetstoneBenchmark,LinpackBenchmark,HashBenchmark,Total Points,Total Time (ms)
        Windows 10 10.0 amd64,Java Version 1.8.0_292,16,151860336,10321.08,1100.00,4024.14,16090.10,7700.00,26301.70,52299.53,331520.67,31676.80,157004.00,1591.34,42190.63,15500.00,2301532.18,438557
        All results
        Operating System,Runtime,Threads Count,Memory Used,ArithemticsBenchmark,ParallelArithemticsBenchmark,MathBenchmark,ParallelMathBenchmark,CallBenchmark,ParallelCallBenchmark,IfElseBenchmark,ParallelIfElseBenchmark,StringManipulation,ParallelStringManipulation,MemoryBenchmark,ParallelMemoryBenchmark,RandomMemoryBenchmark,ParallelRandomMemoryBenchmark,Scimark2Benchmark,ParallelScimark2Benchmark,DhrystoneBenchmark,ParallelDhrystoneBenchmark,WhetstoneBenchmark,ParallelWhetstoneBenchmark,LinpackBenchmark,ParallelLinpackBenchmark,HashBenchmark,ParallelHashBenchmark,Total Points,Total Time (ms)
        Windows 10 10.0 amd64,Java Version 1.8.0_292,16,151860336;10321.08;58876.02;1100.00;11940.00;4024.14;61852.27;16090.10;127079.06;7700.00;42680.00;26301.70;147934.36;52299.53;331520.67;31676.80;314022.20;157004.00;741844.00;1591.34;22219.28;42190.63;51935.02;15500.00;23830.00;2301532.18;438557
        Single-thread  Units results
        Operating System,Runtime,Threads Count,Memory Used,ArithemticsBenchmark (Iter/s),MathBenchmark (Iter/s),CallBenchmark (Iter/s),IfElseBenchmark (Iter/s),StringManipulation (Iter/s),MemoryBenchmark (MB/s),RandomMemoryBenchmark (MB/s),ParallelRandomMemoryBenchmark (MB/s),Scimark2Benchmark (CompositeScore),DhrystoneBenchmark (DMIPS),WhetstoneBenchmark (MWIPS),LinpackBenchmark (MFLOPS),HashBenchmark (Iter/s),Total Points,Total Time (ms)
        Windows 10 10.0 amd64,Java Version 1.8.0_292,16,151860336,344036697.25,2200220.02,402414486.92,1609010458.57,770772.31,26301.70,26149.76,165760.33,3167.68,39251.00,1591.34,4219.06,1550387.60;2301532.18;438557
        All  Units results
        Operating System,Runtime,Threads Count,Memory Used,ArithemticsBenchmark (Iter/s),ParallelArithemticsBenchmark (Iter/s),MathBenchmark (Iter/s),ParallelMathBenchmark (Iter/s),CallBenchmark (Iter/s),ParallelCallBenchmark (Iter/s),IfElseBenchmark (Iter/s),ParallelIfElseBenchmark (Iter/s),StringManipulation (Iter/s),ParallelStringManipulation (Iter/s),MemoryBenchmark (MB/s),ParallelMemoryBenchmark (MB/s),RandomMemoryBenchmark (MB/s),ParallelRandomMemoryBenchmark (MB/s),Scimark2Benchmark (CompositeScore),ParallelScimark2Benchmark (CompositeScore),DhrystoneBenchmark (DMIPS),ParallelDhrystoneBenchmark (DMIPS),WhetstoneBenchmark (MWIPS),ParallelWhetstoneBenchmark (MWIPS),LinpackBenchmark (MFLOPS),ParallelLinpackBenchmark (MFLOPS),HashBenchmark (Iter/s),ParallelHashBenchmark (Iter/s),Total Points,Total Time (ms)
        Windows 10 10.0 amd64,Java Version 1.8.0_292,16,151860336,344036697.25,1962538061.39,2200220.02,23888908.06,402414486.92,6185233887.08,1609010458.57,12707911543.49,770772.31,4275397.06,26301.70,147934.36,26149.76,165760.33,3167.68,31402.22,39251.00,185461.00,1591.34,22219.28,4219.06,5193.50,1550387.60,2392870.31,2301532.18,438557
        
        CPU-Z
        Processors Information
        -------------------------------------------------------------------------
        
        Socket 1			ID = 0
        	Number of cores		8 (max 8)
        	Number of threads	16 (max 16)
        	Manufacturer		GenuineIntel
        	Name			Intel Core i7 11700KF
        	Codename		Rocket Lake
        	Specification		11th Gen Intel(R) Core(TM) i7-11700KF @ 3.60GHz
        	Package (platform ID)	Socket 1200 LGA (0x1)
        	CPUID			6.7.1
        	Extended CPUID		6.A7
        	Core Stepping		B0
        	Technology		14 nm
        	TDP Limit		125.0 Watts
        	Tjmax			100.0 �C
        	Core Speed		4889.2 MHz
        	Multiplier x Bus Speed	49.0 x 99.8 MHz
        	Base frequency (cores)	99.8 MHz
        	Base frequency (ext.)	99.8 MHz
        	Stock frequency		3600 MHz
        	Max frequency		0 MHz
        	Instructions sets	MMX, SSE, SSE2, SSE3, SSSE3, SSE4.1, SSE4.2, EM64T, AES, AVX, AVX2, AVX512F, FMA3, SHA
        	Microcode Revision	0x3C
        	L1 Data cache		8 x 48 KB (12-way, 64-byte line)
        	L1 Instruction cache	8 x 32 KB (8-way, 64-byte line)
        	L2 cache		8 x 512 KB (8-way, 64-byte line)
        	L3 cache		16 MB (16-way, 64-byte line)
        	Preferred cores		2 (#2, #3)
        	Max CPUID level		0000001Bh
        	Max CPUID ext. level	80000008h
        	FID/VID Control		yes
        
        
        	Turbo Mode		supported, enabled
        	Max non-turbo ratio	36x
        	Max turbo ratio		50x
        	Max efficiency ratio	8x
        	Min operating ratio	8x
        	Speedshift		Autonomous
        	FLL_OC_MODE		0
        	FLL_OC_MODE_REG		0x00000000
        	O/C bins		unlimited
        	Ratio 1 core		50x
        	Ratio 2 cores		50x
        	Ratio 3 cores		49x
        	Ratio 4 cores		49x
        	Ratio 5 cores		49x
        	Ratio 6 cores		49x
        	Ratio 7 cores		49x
        	Ratio 8 cores		49x
        	IA Voltage Mode		PCU adaptive
        	IA Voltage Offset	0 mV
        	GT Voltage Mode		PCU adaptive
        	GT Voltage Offset	0 mV
        	LLC/Ring Voltage Mode	PCU adaptive
        	LLC/Ring Voltage Offset	0 mV
        	Agent Voltage Mode	Override
        	Agent Voltage Target	1075 mV
        	Agent Voltage Offset	0 mV
        	TDP Level		125.0 W @ 36x
        	TDP Level		95.0 W @ 31x
        
        	Temperature 0		50 degC (122 degF) (Package)
        	Temperature 1		42 degC (107 degF) (Core #0)
        	Temperature 2		39 degC (102 degF) (Core #1)
        	Temperature 3		39 degC (102 degF) (Core #2)
        	Temperature 4		36 degC (96 degF) (Core #3)
        	Temperature 5		37 degC (98 degF) (Core #4)
        	Temperature 6		43 degC (109 degF) (Core #5)
        	Temperature 7		39 degC (102 degF) (Core #6)
        	Temperature 8		37 degC (98 degF) (Core #7)
        	Voltage 0		1.46 Volts (VID)
        	Voltage 1		+0.00 Volts (IA Offset)
        	Voltage 2		+0.00 Volts (GT Offset)
        	Voltage 3		+0.00 Volts (LLC/Ring Offset)
        	Voltage 4		1.08 Volts (System Agent)
        	Power 00		38.60 W (Package)
        	Power 01		27.07 W (IA Cores)
        	Power 02		n.a. (GT)
        	Power 03		11.53 W (Uncore)
        	Power 04		n.a. (DRAM)
        	Clock Speed 0		4889.22 MHz (Core #0)
        	Clock Speed 1		4889.22 MHz (Core #1)
        	Clock Speed 2		4889.22 MHz (Core #2)
        	Clock Speed 3		4889.22 MHz (Core #3)
        	Clock Speed 4		4889.22 MHz (Core #4)
        	Clock Speed 5		4889.22 MHz (Core #5)
        	Clock Speed 6		4889.22 MHz (Core #6)
        	Clock Speed 7		4889.22 MHz (Core #7)
        	Core 0 max ratio	49.00 (effective 49.00)
        	Core 1 max ratio	49.00 (effective 49.00)
        	Core 2 max ratio	50.00 (effective 50.00)
        	Core 3 max ratio	50.00 (effective 50.00)
        	Core 4 max ratio	49.00 (effective 49.00)
        	Core 5 max ratio	49.00 (effective 49.00)
        	Core 6 max ratio	49.00 (effective 49.00)
        	Core 7 max ratio	49.00 (effective 49.00)
        

        • BkmzSpb
          /#24004927

          C# - имплементация хэширования просто адовая, не учитывает особенности платформы (вангую переписывание бенчей с какой-нибудь Java не задумываясь). Было бы не плохо это починить.

      • Paskin
        /#24007527

        А чем вы под него тесты компилировали?

    • yamabusi
      /#24001183 / +1

      Просто ради интереса отрендерил сцену в Blender на копееченом Зеон с Алика(Intel(R) Xeon(R) CPU E5-2620 v2 @ 2.10GHz),6 ядер/12 потоков.

      На 1 секунду медленнее вышло.
      https://radikal.ru/lfp/d.radikal.ru/d05/2201/0a/227d8f126617t.jpg/htm

      Я понимаю что там далеко не оптимизированно,но в этом плане разница производительность/доллар космическая мягко сказать.)

  17. checkpoint
    /#23999329 / +3

    Что там с тестами кэш памяти ? Это самый важный показатель для СУБД.

      • checkpoint
        /#24000435 / +2

        Хорошая табличка, спасибо.

        Видно, что у Э-16С кэш почти в полтора раза медленее чем у Э-8СВ, при том, что частота DDR выше (DDR4-2400 у Э-8СВ и DDR4-3200 у Э-16С если верить спецификации). Не ожиданно.

        • EntityFX
          /#24000613 / +1

          Инженерник, там частично отключены некоторые кеш-линии, это всё влияет на результаты. Память работает на DDR4-2400, в серийном должна на DDR4-3200.

        • EntityFX
          /#24002713

          STREAM
          -------------------------------------------------------------
          STREAM version $Revision: 5.10 $
          -------------------------------------------------------------
          This system uses 8 bytes per array element.
          -------------------------------------------------------------
          Array size = 10000000 (elements), Offset = 0 (elements)
          Memory per array = 76.3 MiB (= 0.1 GiB).
          Total memory required = 228.9 MiB (= 0.2 GiB).
          Each kernel will be executed 10 times.
           The *best* time for each kernel (excluding the first iteration)
           will be used to compute the reported bandwidth.
          -------------------------------------------------------------
          Your clock granularity/precision appears to be 1 microseconds.
          Each test below will take on the order of 5202 microseconds.
             (= 5202 clock ticks)
          Increase the size of the arrays if this shows that
          you are not getting at least 20 clock ticks per test.
          -------------------------------------------------------------
          WARNING -- The above is only a rough guideline.
          For best results, please be sure you know the
          precision of your system timer.
          -------------------------------------------------------------
          Function    Best Rate MB/s  Avg time     Min time     Max time
          Copy:           20090.1     0.007969     0.007964     0.007975
          Scale:          19408.0     0.008253     0.008244     0.008262
          Add:            21848.2     0.010992     0.010985     0.011005
          Triad:          22284.0     0.010776     0.010770     0.010796
          -------------------------------------------------------------
          Solution Validates: avg error less than 1.000000e-13 on all three arrays
          -------------------------------------------------------------

          • checkpoint
            /#24003035

            Это тест для Э-16С ? А можно такой же тест для Э-8СВ, ну и для интелла ? Заранее большое спасибо.

    • InChaos
      /#23999837

      Кэш память ЦП важный показатель для СУБД? Извините, не мое дело, но не курите это больше.

      • checkpoint
        /#24000361 / +4

        Кэш память ЦП важный показатель для СУБД?

        Именно так. В СУБД очень мало вычислений, подавляющее большинство операций - это копирование массивов данных из одной области памяти в другую. Чем больше и оперативней кэш, тем быстрее отработает ваш запрос.

  18. amartology
    /#24000631 / +13

    Intel i7-2600
    Status: Discontinued
    Launch Date: Q1'11
    Lithography: 32 nm

    Реально? На в два раза меньших проектных нормах получили камень медленнее и жарче, чем уже снятый с производства десятилетний Intel, и после этого кто-то все еще считает, что у Эльбурса как архитектуры есть какие-то перспективы?

    • Fjfvh
      /#24000775 / -3

      Тогда почему этот явно негодный процессор с удовольствием выпускают вполне современные китайские производители? Им на свою репутацию совсем наплевать?

      • amartology
        /#24000935 / +5

        Какие китайские производители что выпускают? Интел? Вряд ли. Эльбрус? Точно нет.

      • mithdradates
        /#24001123 / +4

        Тогда почему этот явно негодный процессор с удовольствием выпускают вполне современные китайские производители? Им на свою репутацию совсем наплевать?

        Какие китайские производители выпускают Эльбрус? Вы про TSMC что ли? Это фаб, они "выпекают" что закажет клиент.

    • forthuser
      /#24000791

      А, почему нет?

      У IA-x86 есть «тяжёлое» наследие, которое Intel должна ускорять с помощью аппаратной магии, у Эльбрус магия ускорения кода в возможностях компилятора.
      При этом, полагаю, что железное наполнение у Эльбрус более специфично по его управлению, чем в модели IA-x86 в связи со спецификацией программного кода.
      Отсюда следует, предположительно, что инженеры Intel вынуждены использовать определённый базис решений к которым они пришли в результате многих десятилетий, а у Эльбрус архитектуры более свободы в выборе пути реализации проекта программно-аппаратно процессора Эльбрус.
      Отсюда и такие, вполне достойные результаты на «коротком» старте этого проекта.

      P.S. Мне это так видится в общих рассуждениях. ????

      Чем то Эльбрус похож на идеи процессора Transmeta.
      Жаль, что они не смогли удержаться на рынке.

      • amartology
        /#24000941 / +6

        Отсюда и такие, вполне достойные результаты на «коротком» старте этого проекта.
        Коротком? Архитектура Эльбрус — ровесница ARM.

        Чем то Эльбрус похож на идеи процессора Transmeta.
        Жаль, что они не смогли удержаться на рынке.
        Так раз Трансмета и Итаниум не смогли, может в этом есть какая-то закономерность? Например, то, что VLIW как подход к процессорам общего назначения не работает?

        • forthuser
          /#24001063

          Так и, к примеру, M68K тоже общего назначения и где то ровесница, и долго была на рынке, но конкурентную борьбу с инженерами Intel не выиграла.
          И, вроде, только с Pentium-1 произошёл «отрыв» IA-x86 от конкурентов.

          P.S. Даже Apple в своих ПК, 15-ть лет назад перешла на IA-x86 процессоры от Intel закопав свою архитектуру, а сейчас и от Intel процессоров ушла на свои процессоры, но разрабатывала она их в течении где то 10-ти лет.

          А, сколько ещё процессоров общего назначения, к примеру, начиная с Z-80 не смогли составить конкуренцию…

          • JerleShannara
            /#24001257 / +2

            Небольшая подсказка: что IBM Power, что M68K, что x86, что ARM вполне себе RISC/CISC/MIPS (х86 только снаружи имеет обёртку CISC, внутри это RISC начиная с Pentium Pro/2). VLIWы это: трансмета (не выстрелила), итаник(почётно утонул), ещё VLIW мелькал в GPU AMD (RDNA 2 уже не VLIW ЕМНИП) и куче сигнальных процессоров(а вот тут он выстрелил, правда нынче, если надо скорости, вместо DSP ставят FPGA).

            • forthuser
              /#24001349

              Небольшая подсказка

              Имеет смысл, тогда указать, что в Вашем понимании RISC, и что с того, что где то по слухам внутри x86 есть RISC процессор, а вероятно и не один если к ним нет прямого доступа у программ.

              P.S. Вы ещё не указали MISC абревиатуру.

              • JerleShannara
                /#24002905 / +1

                Не по слухам, читайте документацию на интеловские процессоры и особенно про то, что такое микрокод. Если бы современные интеля были бы внутри чистым CISCом, то вместе с процессором вам бы в комплекте шёл фреоновый кондиционер-охладитель для процессора. RISC — короткие инструкции, подразумевающие простые действия вида «записать из памяти в регистр», «прибавить к аккумулятору регистр» и так далее, а не «взять из памяти число по смещению из регистра и прибавив к нему второй регистр положить в аккумулятор».

            • kedoki
              /#24001707 / +1

              ещё VLIW мелькал в GPU AMD (RDNA 2 уже не VLIW ЕМНИП)

              Ну как мелькал, применялся не одно поколение начиная с HD 2000 и заканчивая HD 6000, плюс ранние APU и некоторые видеокарты формально из более поздних линеек (AMD не раз помещала карты с разными архитектурами в одну линейку). За долгие годы AMD не смогли хорошо загружать VLIW, потоковые процессоры хронически недогружались. В HD 6000 VLIW5 порезали до VLIW4, а в следующем поколении перешли на GCN с RISC. RDNA с самого начала RISC, как и GCN.

              Итого: слили область GPGPU Хуангу с его RISC, не смогли обеспечить хорошую загрузку VLIW и сменили архитектуру более десяти лет назад. Не сказать, что Itanic в мире видеокарт, но от полного успеха очень далеко.

      • 0xd34df00d
        /#24002839 / +7

        Компилятор физически не способен ускорять то, что становится известно только в рантайме, вроде нетривиальных паттернов переходов для ветвлений.

    • northzen
      /#24001095

      А какие перспективы у неЭльбруса? У его отсутствия?
      Радоваться надо, что осиляют технологии хотя бы десятилетней давности.

      • JerleShannara
        /#24001261 / +2

        Перспективы посидеть на ARMах, пока не будут готовы RISC-V.

        • Am0ralist
          /#24001347 / +4

          Да нет на них перспектив. Его даже в качестве компов ментам всяким не сунешь, как вроде из обсуждения прошлого на хабре вышло. То есть половину госзакупок можно сразу херить.
          Наоборот, на эльбрусах можно было бы перекантоваться в плане «защищенных» с сертификатами машинках до появления рисков5, а там бы и закопать глядишь можно было бы, или наоборот, прижились бы где.

          • JerleShannara
            /#24001529

            Силовикам на спарках перекантоваться проще, пока риск5 не появится, а вот куда совать e2k я вообще не знаю, ну не пригоден этот процессор на роль GP CPU. В радар его засунуть — может что и выйдет. Не силовкам — на АРМах с перспективой слезть на риск5, если всё станет только хуже.

            • Am0ralist
              /#24001781

              И где вы видели те же гозакупки, работающие на спарках?
              Не, серьезно, у вас странные представления о том, чем занимается куча народа (которым компьютер нужен для работы) в наших силовых ведомствах.

              а вот куда совать e2k я вообще не знаю, ну не пригоден этот процессор на роль GP CPU
              чего это не пригоден, когда даже процы а-ля пеньки и силероны офисные считаются пригодными? Ну те, которые 2600k скорей всего так же проиграют в этих же тестах из статьи)))
              Уж на кучу рабочих мест подобные вполне сойдут. И уж точно лучше, чем спарки или некоторые мипсы…
              А с учётом, что при этом по сути будет а) переход на линь, б) разрабы много чего перенесут на линь, то уж потом что именно под капотом станет вообще глубоко фиолетово.

              • JerleShannara
                /#24001853

                Госзакупки, на которые прилетает птица, которая может кушать падаль и не дохнуть, вряд ли видят все. Ну а работать в условном офисе старого разлива под линуксом можно и на Rках от МЦСТ ещё какое-то время.

                • Am0ralist
                  /#24002033 / +1

                  А смысл? Эльбрусы вроде как всё равно будут производительнее всего прочего, рки 15-го года на 90 нм делаются. О чем вы?
                  По мне проще заказать две партии эльбрусов, что уменьшит стоимость, и воткнуть их в рабочие станции, софт даже без натива вроде как будет не хуже, а может лучше работать. А от старых байкалов даже полиция отбрыкивалась, которые мипсы, там же вообще пень4 по сути.
                  Ещё на 3-4 года этого бы хватило точно. А дальше — вон, ядро пообещало всех порвать, потом правда осётра подурезало по частотам. Но если получится, то эльбрусы могут уйти в какие-то специфические железки, если будут где нужны.

                  • JerleShannara
                    /#24002831

                    Ну вот опять вы Тшку приплетаете. Запишите себе: Тшка хороший микроконтроллер для управляемого L2 коммутатора, Тшка с приделанной видеокартой — условно частично терпимый тонкий клиент, если разрешение не выше 720p и нет 3D. По мне проще наконец закопать стюардессу, переждать время на спарках и стартовать на risc-v, у которого хотя бы есть более-менее нормальное комьюнити.

                    • Am0ralist
                      /#24004311

                      Ну вот опять вы Тшку приплетаете.
                      Я приплетаю?
                      Ну вот исходя из этого и давайте поговорим, что более приспособлено быть на роль GP CPU из реально существующего?
                      По мне проще наконец закопать стюардессу, переждать время на спарках
                      какие спарки, если их так же не делают массово и на них производительность тоже ни о чём? там что, 4 ядра на уровне арма 2007 года?
                      Ну, на них проще закопать всю инфраструктуру вообще. Вон в том окне, где открывали, туда и закрывать бегите, ибо только там бумажка ваша хранится

                      • JerleShannara
                        /#24004833

                        С таволгой была поличитески-маскишоу ситуация, которую ниже уже описали.
                        Из имеющегося на рынке с флагом «РФ» — Baikal-M1000, всё прочее либо не GPСPU, либо устаревшее порядком. Для Siloviks я предлагаю переждать на MCST R-Series (гугл кстати про это таки что-то знает). e2k — это не GPCPU как бы его не пытались за него выдать, все попытки вытащить на рынок VLIW процессоры в роли GPCPU завершились гранд-обломами, а уж ресурсов там было потрачено гораздо больше. Если уж тащить эту архитектуру — то делать из неё ускорители (матрицы 10000х10000 там перемножить, всякие фильтры наложить и т.д.) которые будут разгружать GPCPU на рабочих задачах.

                      • yalex1442
                        /#24004897

                        >e2k — это не GPCPU
                        Какой-нибуль другой из отечественных GPCPU способен на такое?
                        image
                        Причем это крутится на предыдущем камне в эмуляции с сопутствующими потерями.

                      • JerleShannara
                        /#24004921 / +1

                        На 1 FPM? Думаю что вполне, если под QEMU на aarch64 запустить через wine и в PCIe вставить хорошую видеокарту.

                      • Am0ralist
                        /#24004953

                        Ну то есть посылаете в гугл и не можете подтвердить, что Rseries r1000 на 90 нм, который примерно равен на ядро арму 2007 года, позволит юзать его как центральный процессор, а процессор, на котором даже в игрушки игрались хоть как-то — всё, фигня, он, видите ли, в 2-3 раза слабее старого i7?

                        все попытки вытащить на рынок VLIW процессоры в роли GPCPU завершились гранд-обломами,
                        Итаник завершился обломом, потому что интелу две линии тянуть не хотелось. Причём в конце итаники были просто слабее, но не критично, но смысла не было, не получилось закапать x86.
                        x86 у нас — нет.
                        Тогда и арм надо закапывать, если интел от него отказался десяток лет назад, да?

                        Всё, кроме вашей предвзятости у вас аргументов нет. Если вы считаете, что R1000 лучше вот 16С — ну это прям сильно.
                        Аргументище!

                      • JerleShannara
                        /#24005007 / +1

                        Дам ещё одну подсказку — поищите древность по имени «Эльбрус 90 микро», чтобы понять для кого МЦСТ клепает SPARC. Вот они совершенно спокойно на них и пересидят, пока не появится что-то более вкусное на безпроблеммной с точки зрения лицензирования корке. Итаник завершился обломом потому, что там была та же самая канитель «будет совместимо, компилятор разрулит» и интел держал их сугубо для тех, кто поверил в то, что VLIW это круто(ибо контракты и прочее). Трансмета тоже удачно утонула со своим робинзоном на VLIW. И только МЦСТ продолжает тянуть лямку, что VLIW это GPCPU. А так — назовите на момент отказа фирмой Intel от ARM тех, кто ещё делал тогда процессоры на ARM ядрах. И назовите тех, кто на момент отказа фирмы Intel от Итаника делал тогда процессоры на VLIW.

                      • Am0ralist
                        /#24005133

                        Ещё раз, я вам показывают закупку Т, как показатель того, куда и зачем вообще могут быть нужны подобные решения в принципе уже сейчас. Показываю их, вы мне показываете другое, что не имеет отношения к вопросу.
                        И там 16С — уже будет вполне хватать для всего.
                        Итаник ушёл, ибо был x86. У нас — НЕТ x86. До этого он как центральный процессор — работал. Понимаете, работал.
                        Да, на нём не получится сделать топ-топ. И?
                        Вы отрицаете все процессоры, кроме топов? У вас дома стоит минимум два эпика?
                        Нет? Тогда в чём вопрос, что даже 16с закроет кучу мест спокойно. Что всех заставят, бедняжек, перейти на линукс, а не винду? Из-за этого преживаете?

                      • JerleShannara
                        /#24005175

                        То есть госзакупки всегда будем делать по принципу «я дебил», хорошо, записал.
                        Я ругаюсь с того, что стоящий у меня камень, которому уже 11 лет, по прежнему рвёт все эти эльбрусы, при учёте того, что в момент выхода он стоил менее 500уе., а бюджетные деньги тратятся на то, что ему сливает, стоит гораздо дороже и не имеет перспектив на рынке GPCPU. Вам кстати самому не смешно, что «GPCPU», представляемый как серверный, мягко говоря пригоден в основном только как десктопный? Плюс ещё один толстый и большой гвоздь в крышку VLIWа: у нас сейчас основная масса кода — это говнокод. Фреймворки на фреймворках поверх либы абстракции. При этом каждую тему с e2k преследует «ну вот компилятор допилим и всё будет телемаркет» и «ну код надо оптимизировать». Вы себе как представляете тонну говнокодеров, которые будут под e2k оптимизацию делать?
                        П.С. Серьёзные задачи я на домашней машине не кручу, для этого есть такие удобные штуки как мощные сервера, которые увы на e2k не удастся построить.
                        П.П.С. Винда у меня уже давно скончалась, живу как-то под линуксом спокойно.

                      • Am0ralist
                        /#24005219

                        Я ругаюсь с того, что стоящий у меня камень, которому уже 11 лет, по прежнему рвёт все эти эльбрусы, при учёте того, что в момент выхода он стоил менее 500уе.
                        А конфидераты из-за этого войну с севером устроили. Проиграли, прикиньте? Оказалось, что иметь свою промышленность — таки надо!
                        а бюджетные деньги тратятся на то, что ему сливает, стоит гораздо дороже и не имеет перспектив на рынке GPCPU.
                        Это вы про то, что примерно такой же камень в системнике, как ваш 11 летний, только с сертификатами определёнными, бюджет покупает за 180к, например?
                        Вам кстати самому не смешно, что «GPCPU», представляемый как серверный, мягко говоря пригоден в основном только как десктопный?
                        Вам не смешно, что в сервере может стоять celeron ххххT?
                        У вас в декстопе может быть 4 ТБ оперативки?
                        П.С. Серьёзные задачи я на домашней машине не кручу, для этого есть такие удобные штуки как мощные сервера, которые увы на e2k не удастся построить.
                        Ну и что? Как это отменяет тот факт, что 16С в куче мест будет выше крыши?
                        П.П.С. Винда у меня уже давно скончалась, живу как-то под линуксом спокойно.
                        А вот тот весь говнософт сейчас в реале под винду написан, если что. И когда выйдут риски5, если выйдут, проблема переписать всё будет также стоять. Ибо что? Пока не пнёшь, не полетит.
                        Если к моменту выхода оных весь говнософт перейдёт на линукс, то уже б прекрасно всё было, но, однако, по факту, вы предлагаете ещё лет 5 сидеть ровно на заднице, потом ещё лет 5 всё переписывать, вот тогда, возможно, но не точно… Ведь и винда к тому моменту может уже на рисках начать работать.

                        Ну ок, замечательный план, надёжный, как швейцарские часы, ага.

                      • JerleShannara
                        /#24005247

                        Я предлагаю говнософт пока переписать под ARM/SPARC, параллельно смотря, как это будет теоретически выглядеть на RISC-V, благо его сейчас на «посмотреть» можно даже на cyclone iv собрать. В сервер, где стоит сельдерон можно спокойно запихнуть ARM, или заменить его на несколько серверов на SPARC. В сервер, где стоит парочка Xeon, ну да, ну да, пошёл я на ближайшие пару-тройку лет.

                      • Am0ralist
                        /#24005471

                        Я предлагаю говнософт пока переписать под ARM/SPARC,
                        армы уже нельзя, спарки имеют производительность хуже эльбрусов вообще.
                        И?
                        Вместо переписать под линукс.
                        В сервер, где стоит сельдерон можно спокойно запихнуть ARM, или заменить его на несколько серверов на SPARC
                        с 4 тб. ну да, ну да. вы гуляйте, гуляйте

                      • JerleShannara
                        /#24005539

                        Эмм, если вы в сервера с сельдеронами пихаете 4Тб оперативки, то надо проверить психическое здоровье.

                  • amartology
                    /#24004431 / +1

                    А от старых байкалов даже полиция отбрыкивалась
                    Таки полиция отбрыкивалась, или просто появился удобный повод посадить владельца компании, отобрать у него бизнес и передать кому надо? А владельца потом отпустить в связи с тем, что за предельный срок ограничения свободы никакое внятное обвинение так и не вышло предъявить?

                    • Am0ralist
                      /#24004963

                      Если вы не знаете, как работают госзакупки, то, кстати, не советую вам там участвовать, а по срокам они там конкретно накосячили, кстати.

                      А отбрыкивались, как понимаю, в том числе потому, что, как сказал выше человек:

                      Тшка хороший микроконтроллер для управляемого L2 коммутатора, Тшка с приделанной видеокартой — условно частично терпимый тонкий клиент, если разрешение не выше 720p и нет 3D.
                      А не то чтобы нормальное рабочее место, под которые ещё б пришлось кучу всего переделывать, а желания у ментов явно было мало…
                      Отжим компаний не обязательно через суды делать, ага.

        • northzen
          /#24002369

          Это вариант "еще немножко потерпеть". Но когда терпится, опыт разработки не накапливается, а лишь теряется.

          • JerleShannara
            /#24002835

            Ну так никто не говорит, что надо оставаться на АРМах, можно уже начинать пилить софт по risc.

  19. Mox
    /#24001799 / +3

    16 нанометровый процессор с 16 ядрами тягается, и временами проигрывает, 4-х ядерному, 8 поточному 32 нанометровому, да еще и на более медленной памяти.

    Что-то печально это все (((


    Надежда на то что компилятор все таки может раскрыть потенциал, но без серьезных вливаний надежды особо нет, да и политика закрытости тоже не позволяет надеяться что сообщество что-то там подпатчит.

    • JerleShannara
      /#24001855 / +4

      Песня про раскрытие компилятора исполняется ещё со времён монокуба.

    • Armmaster
      /#24001881 / +1

      Надежда на то что компилятор все таки может раскрыть потенциал

      не сможет

    • amartology
      /#24001989 / +3

      Надежда на то что компилятор все таки может
      Решительно ничем не обоснованная, зато опровергаемая опытом других сходных архитектур.

      • Mox
        /#24002181

        Я так понимаю что lcc еще толком не умеет profile-guided optimization, а без этого для vliw компилятора слишком мало данных. На это надежда )

        • amartology
          /#24002823 / +3

          Видите ли, идея VLIW была в том, чтобы можно было сделать более простое железо и дальше разогнать машину за счет компилятора. Прямо сейчас мы уже видим, что железо намного более сложное и дорогое (не конкретно сейчас более дорогое, а в большой серии 16 нм сильно дороже, чем 32 нм), чем сильно превосходящие его х86. Так зачем оно тогда?

          • Mox
            /#24003161

            Я кстати не знаю насколько оно сложное, думаю что все таки попроще чем конкуренты.

            Я так понимаю что идея уперлась в то, что вещи типа Tensorflow, где процессор бы раскрылся - никто на него не портирует. А для обычных задач статических данных недостаточно, нужен компилятор с поддержкой оптимизации по собранной статистике выполнения. gcc кстати такое умел еще хз когда.

            Зачем - я не знаю. Идея как идея. Пока считаю чтоб без встряски, крупных инвестиций и смены политики в отношении открытости к сообществу проект загнется. Чуваки слишком надеются на государство, не пытаются денег заработать

            • amartology
              /#24004443

              кстати не знаю насколько оно сложное, думаю что все таки попроще чем конкуренты.
              Настолько проще, что нужен гораздо более продвинутый техпроцесс, чтобы достичь существенно худших параметров?

              вещи типа Tensorflow, где процессор бы раскрылся
              Не вижу причин, по которым Эльбрус был бы хорош как аппаратная часть для нейросеток. Точнее, если бы он был хорош в этом, он бы уже там использовался вовсю.

          • JerleShannara
            /#24003623 / +2

            Выкидываем из e2k всю ненужную периферию. Оставляем в нём только PCIe Device и кучу каналов памяти, сажаем всё это дело на full sized PCIe карту. Получаем ускоритель, который поможет разгрузить CPU на всяких хитрых задачах.

    • saboteur_kiev
      /#24002753 / +1

      Я вам так скажу, что мы тут в Украине завидуем что у вас есть свои разработки процессоров, которые в принципе можно сравнивать по производительности в десятки раз, а то и в разы (а не в тысячи и десятки тысяч).
      Это означает что отрасль в принципе вообще есть. Да маленькая. Да, не конкурент на мировом рынке, но уже существует в виде, когда ее можно использовать даже в продакшене, и на внутреннем рынке у нее уже могут/должны быть заказчики, а это значит продолжение разработки, наработка экспертизы. И кто его знает что будет лет через 10-20.

      • amartology
        /#24002825 / +1

        Я вам так скажу, что мы тут в Украине завидуем
        У вас в Украине тоже есть толковые микроэлектронщики. Они только, как и ваши айтишники, работают на мировой рынок, а не на внутренний. И это, кстати, в плане квалификации большой плюс.

        • saboteur_kiev
          /#24003147

          В том-то и дело, что работая на "мировой рынок" ты патенты не себе нарабатываешь. А в разработку основных узлов и не пустят.

          • amartology
            /#24004459 / +1

            А в разработку основных узлов и не пустят.
            Насколько мне известно, пускают ещё как. Патенты себе — это и риски себе, видимо, желающих создавать свои собственные компании особенно нет. Но специалисты есть, и отрасль в каком-то виде есть.
            В России все крутится вокруг госзаказа, а у Украины собственных денег на микроэлектронный госзаказ нет. Но у Украины есть, например, перспективы войти в ЕС и устроиться в европейскую систему микроэлектронного госзаказа. — тогда, глядишь, и собственные компании станут выгоднее работы на дядю.

  20. vakhramov
    /#24002589

    DSP ядра выпилили из него?

    Ребята разработали эмулятор популярного в узких музыкальных кругах ДСП от моторолы, и x86_64 этот эмулятор тянет со скрипом...

    https://dsp56300.wordpress.com/

  21. RiddleRider
    /#24002717 / +2

    Благодарю за тестирование!

  22. theoretician
    /#24003721 / +2

    По-моему, главная проблема МЦСТ в том, что она не понимает, как правильно презентовать свои процессоры рынку. Почему-то всё время сравнивает с Intel и AMD, говоря при этом, что у монструозных западных компаний намного больше денег на разработку, производство и т.д. В этом главная ошибка, мне кажется, не надо пытаться бросать вызов существующим решениям сразу во всём, особенно в том, в чём они заведомо выиграют - в общих задачах со сложной логикой и тем более в попытках запустить программы с трансляцией в x86, показать выполнение Windows и прочее - не нужно этого делать. Автор данного повествования тоже зря ограничился "для бенчмарков это запрещено делать" - ничего не запрещено, такая честность никого не интересует, и вообще честность - это бред, в рынке надо полностью раскручивать все преимущества, даже полностью спекулятивные и фиктивные. Наоборот, надо брать особенности данной архитектуры и читить так, как недоступно для других архитектур, перекомпилировать с флагами и оптимизировать, по ситуации представляя данные процессоры не как общего серверного назначения, а специалированного. Даже статья получилась бы намного интереснее, если бы удалось полностью раскрыть именно особенности этой архитектуры, и если бы при этом эльбрусы ушли в отрыв.

    Сейчас МЦСТ ещё не вклинилась в рынок, живёт за счёт господдержки, но, лично я бы не стал рассчитывать в российских реалиях на это в долгосрочной перспективе. Пусть сейчас есть господдержка, но её надо использовать, чтобы постепенно найти себя в рынке.

  23. edo1h
    /#24006821

    почему всего в двумя модулями памяти? память уж точно дефицитом не является.
    каналов памяти у процессора явно больше