Наша новая игра 8 сентября в раннем доступе на steam



Видеокарта для 3ds Max 2012

3ds Max 2012 - это очень удачная версия Макса получилась. По своим скоростным показателям работы с большим количеством полигонов/объектов - она превзошла все ожидания. Но с единственной оговоркой. Чтобы нормально работать с новым мегабыстрым графическим ядром Nitrous - у вас должна быть современная видеокарта с, как минимум, 1 GB видеопамяти на борту.

Из самых дешёвых и рекомендуемых Автодеском - это NVIDIA Quadro FX 580 (512 МБ, поколение Tesla) или NVIDIA Quadro 600 (1 ГБ, поколение Fermi).

Более подробную помощь в выборе видеокарты под 3ds Max 2012 вы найдёте на специальной страничке подбора видеокарты для 3ds Max.

Визуализации с помощью GPU (видеокарты) в 3ds Max 2012 (iray или VRay).

Чтобы использовать мощь видеокарты на всю катушку при визуализации с помощью встроенного рендерера iray или внешнего VRay, Autodesk рекомендует использовать графический адаптер, который поддерживает технологию CUDA. Вот перечень видеокарт, поддерживающих CUDA.

Подробнее о визуализации с помощью видеокарты читайте в статье визуализация с помощью CPU и GPU в VRay, а если у вас с этим какие-то проблемы, то читайте статью как исправить ошибки VRay RT.

Также читайте шикарный FAQ по визуализации с помощью видеокарты и iray [англ]. Там же обсуждаются вопросы выбора видеокарты для этих целей.

Сколько нужно оперативной памяти для 3ds Max 2012.

Если у вас операционная система 32-х битная, то максимум памяти, что может использовать 3ds Max (вместе с Виндой) - это 4 ГБ. Т.е. даже если у вас стоит 6 ГБ или больше, то 3ds Max (да и сама Windows) не увидит их. Самый минимум для 3ds Max 2012 - это 2 ГБ оперативки.

Если у вас 64-х битная ОС, то минимум у вас должно быть 4 ГБ оперативной памяти, а оптимально - 8 ГБ.

P.S. Лолита на заглавной картинке создана американкой Sharlene Lin с помощью After Effects, Maya (mental ray) и ZBrush. Оригинал тут.

Реклама (как сюда попадают): Интернет-магазин Днепропетровск торгует бытовой техникой, а также современными технологичными гаджетами. Крупную бытовую технику доставляют бесплатно.




Вам понравилась статья? Хотите отблагодарить автора? Расскажите о ней друзьям.
Или подпишитесь на обновление блога по E-Mail.

Введите ваш e-mail (используется только для отправления обновлений блога):

комментарий 21 к статье “Выбор видеокарты для 3ds Max 2012 и сколько нужно памяти”

  1. Palit nVidia GeForce GTX 570 1.28GB/320BIT (~3000ГРН — 375$) :
    Обрабатывает ~25КК Фактической геометрии при 30FPS, ~40КК 15FPS.
    Lambert-Shaded, Phong/Blin-Shaded.

    Maya/Max (Nitrous/Viewport 2.0) — результаты в этом плане практически одинаковые.

    Сколько параметрической геометрии тянет эта видео карта понятия не имею, много 🙂 Все зависит от алгоритма созданий параметрической геометрии…

    Кстати в игровых движках UE/CE в кадре эта карта может держать до 100 миллионов трис-полигонов при 30FPS. А это еще и текстуры, шейдеры, и тонна всего остального. И еще масса геометрии вне кадра (в сцене).

    На пример Cyrsis 2 + HD Textures PACK + DX11 Mod (All ULTRA-High).
    В кадре попадается до 100 миллионов трисов [1920×1080].
    FPS проседает максимум до 20, в основном держится на 30…

    IMHO :
    Учитывая что эта игровая видео карта с более слабым OGL блоком чем у профи карт может тянуть такой объем фактической геометрии — не вижу смысла тратиться на профи карту.

    Просто не представляю какие задачи нужно выполнять что бы одновременно в вьюпорте держать больше 40 миллионов quad-полигонов…

    Ведь такие объемы геометрии можно либо элементарно спрятать либо перевести в Proxy.

    • Ах да забыл добавить по поводу RAM…

      На x32 системе можно использовать незадействованную память.
      На пример используя SuperSpeed RamDisk Plus.

      Конечно это не самый лучший вариант — и те мне менее — МОЖНО 🙂

  2. Интересно было бы почитать обзор не только по видюхе, а по системнику в целом.
    Хочу обновить свой старенький гроб и стою на распутье что взять…

  3. Имхо, младшие квадры не стоят того, лучше GeForce за те же деньги взять, где CUDA процессоров будет гораздо больше(для рендера видеокартой). Сам пользуюсь далеко не самой мощной GTX 460 1gb, хватает на все нужды.

  4. Пока что сыроваты эти гпу-рендереры, поэтому я бы не тратился на видеокарты, а подождал бы 8-ядерники. Или взял бы текущий топовый, шустрый интел. По цене это будет как недорогая квадра. вы, рендерит очень нестабильно! А именно виреевский гпу.
    Квадры это удел богатых толстосумов и крутых компаний.
    Кот как чайники рендерить, так это гпу впереди планеты всей. А как что-то, близкое к средней сложности, черный экран… Может одного гигабайта моей 460-й мало. Но на то время 2-х еще не было! Подождем еще пару лет, посмотрим.
    Автору спасибо за блог, читаю часто.

    • Когда появились GTX 2xx — появились карты на 2048 — 2560 MB.
      Когда появились GTX 4xx — появились карты на 4 GB.
      Когда появились GTX 5xx — появились карты на 6 GB.

      Что будет в следующем году даже и не знаю 🙂

  5. Ни разу ещё тут не писал, но читаю блог регулярно. Спасибо Вам за полезную и интересную инфу!
    Думаю обновить комп, и вопрос заключается вот в чём: есть ли смысл переплачивать за видеокарту с 2 Гб на борту? или и 1 Гб хватит для комфортной работы?
    Сравниваю Palit GeForce GTX560 Ti 2Gb GDDR5, 256 бит и Asus GeForce GTX560 1Gb GDDR5, 256 бит. Разница в цене не очень большая но есть ли смысл платить лишние 100-300 грн за 2 Гб?
    Поддерживаю gdX по поводу обзора всего системника.

    • В плане работы выбирать 1 или 2 GB — смыслу нету.
      Я не видел не один 3D пакет кроме Mari который жрал бы больше 800MB VRAM.

      Да и то что бы сожрал 3D пакет 700+ MB VRAM — нужно загрузить в вьюпорт около 40 миллионов Quad-Polygon-ов с фактической геометрией.
      [На пример в Maya 2012 Viewport 2.0]

      Ну и естественно если вы метите на GPGPU(OpenCL-CUDA) рендер — то берите однозначно 2GB.

      Если собираетесь играть в такие игры как Metro/Crysis 2/Battlefield с разрешением выше 1680х1050 (На пример в FULL-HD — 1920×1080)…
      То тут однозначно выбор в пользу 2-х гигабайт.

      Если у вас диагональ/разрешение монитора не позволяет играть в FULL-HD — то выбор в пользу 1GB.

      ps
      На блоге ведь есть статья по поводу выбора железа под работу в сфере дизайна…

  6. Хм… что то вы всё про nvidia, а как нащет amd? У меня например 5770 1гб 128bit 850\1300\4800 и обновится в ближайшее будущее не представится возможности. Хотелось бы узнать на, что она способна в 3d mаx`е если в играх таких как BF3 и Скайрим спокойно можно играть на ультра настройках (а последний даже с модами на улучшение графики)?

    • AMD/Radeon/FireGL — редко рассматривают из за отсутствия поддержки GPGPU CUDA языка программирования.
      Впрочем сейчас большинство софта адаптируют и под простую GPGPU OpenCL.

      5770 не лучший вариант, все же это не совсем полноценная видеокарта в своем поколении — урезанная.
      Более полноценная видео карта в своем поколении (средняк) — 5850.

      Учитывая специфику работы в 3D-Пакетах то 128 бит шины не хватит для работы с массивной геометрией в OGL/DX хардверных вьюпортах.

      К тому же некоторый софт ВООБЩЕ не поддерживает видео карты ATI/AMD — на пример The Foundry Mari.

    • Не советую AMD. Сколько знаю друзей с этими картами, они все клянут тот день, когда их купили. Это вечные проблемы: постоянно приходится переустанавливать дрова. В общем мороки с ними очень много.

    • Хочу передать !неподтвержденную! информацию по поводу драйверов AMD и nVidia…

      В общем (насколько мне грамотные люди пояснили) :
      Драйвера от AMD работают через внешние дополнительные компоненты и не обладают полным доступом к видео карте (на программном уровне).

      У nVidia все с точностью да наоборот :
      Драйвера не используют внешних компонентов и работают напрямую с железом видео карт и у драйверов более полный доступ к железу видеокарты.

      В этом есть свои плюсы и минусы :
      AMD — проблемы с совместимостью/стабильностью.
      Но драйвера не могут навредить хардверной части видео карты, так как у драйверов нету полного доступа.

      nVidia — все стабильно/без проблем с совместимостью
      Но драйвера могут навредить видеокарте.
      Вплоть до смерти видео карты (даже в случае с WHQL сертифицированными драйверами).

      Таких фейлов у nVidia было предостаточно.
      Были даже фейлы в сегменте HighEnd видеокарт.

      В HighEnd решениях по моему такое было 2 раза как минимум (на личном опыте). Но десятки и сотни раз в Mid сегменте…

      Пара примеров :
      88000 ULTRA — сгорала при установке бетадрайверов которые модифицировали BIOS видео карты.
      (Для тех кто не знает — у видеокарт тоже есть BIOS-ы).
      Причем насколько я помню с сайта nVidia удалили эти драйвера только через 2 недели после того как о проблеме уже узнали в компании.

      GTX590 — при установке определенной версии драйверов не срабатывала защита от завышенного разгона (насколько я помню).
      Одно из видео с Ютуба — http://www.youtube.com/watch?v=sRo-1VFMcbc

      На моем и не только на моем опыте у ATI/ADM(Radeon) — такого не было и теоритически быть не может в силу специфики драйверов (ограниченого доступа к железу).
      То есть у них полный доступ к железу видеокарты имеет только сам BIOS видеокарты на хардверном уровне.

      В общем тут самому надо выбирать :
      ATI/AMD — Проблематичность+Безопастность
      nVidia — Стабильность+Небезопастность

      ps
      Я с PC имею дело уже больше 14 лет и насколько я помню ни с nVidia ни с ATI — проблем у меня не когда не возникало.
      Дома постоянно было от 2-х до 5-ти компьютеров и все с разной начинкой (На базе Intel, на базе AMD, и с видеокартами от ATI/nVidia).

      Что в играх что в 3D-Пакетах не каких затруднений у меня не разу не возникало…

      • Кстати забыл добавить по поводу личных наблюдений ATI vs nVidia :

        Перешел от ATI Radeon 4890 :
        Видеокарта Radeon 4890

        На GTX 570 :
        видеокарта nVidia GTX 570

        Пол года сидел на 4890 и пол года сижу на GTX 570 :
        От GPGPU CUDA — никакой пользы за пол года не ощутил, весь софт современный (включая V-Ray работает спокойно и на OpenCL и обходится без CUDA).

        Пользы от DX11 тоже не какой не ощути (в плане работы с 3D-Графикой). Ну да Marmoset последний может хардверно рендрить красиво картинки — ну да и все 🙂
        Тоже самое и с OGL 2.1 (хоть в нем изменений с гулькин-нос).

        Также к моему сожалению GTX570 выдает ровно столько же FPS в вьюпортах (+/- 3%) 🙁 Хотя и стоит на 1000ГРН дороже.

        Грусть в общем. Но я выбираю nVidia 🙂 !

        • Хм.. спасибо)) Останусь на ATI но уже буду думать, что б обновить. Мечу на 6990.

  7. мдаа.. спасибо!

  8. очень полезный сайт…огромное спасибо!

  9. Помогите советом! Хочу купить гефорс 460 v2 1Gb 192bit осонован на GF114 частоты выше чем у старой 460 1гб. Вопрос вот в чем, критично ли то что шина урезана до 192 бит ( но частота памяти выше на 200Мгц) по сравнению с шиной в 256 ? Я работою в 3dsmax 2009-2012 по ситуации но больше в 2009. Занимаюсь Арх-Визом и моделированием мидл-поли объектов. Очень негативно отразится на вьюпорте шина 192 бит ?

    • «Занимаюсь Арх-Визом и моделированием мидл-поли объектов»
      Разницу между 192 и 256 — скорее всего не заметите.

      У GDDR5 памяти очень большая пропускная способность. Эта память изначально может полностью заполнить емкость в 2GB за 4 секунды и затем за секунд 6 полностью ее перезаписывать.

      Если вы не собираетесь каждые 15 секунд подгружать и выгружать в сцене по 10 миллионов Quad-Polygon-ов — то проблем не возникнет ни с шиной ни с памятью 😀

      А на разницу в 200Mhz в случае с GDDR5 я считаю вообще не стоит обращать внимания… Особенно когда идет речь об OGL вьюпортах в 3D пакетах…

      Все остальные недостатки производительности будут упираться в саму видео карту. Но опять таки — 192битная шина будет тут не причем…

      Конечно в хардверном реалтайм рендринге в 1920×1080 — 192 бита всего потенциала память не раскроет и возможно даже в играх послужит причиной проседания FPS-а. Но речь сейчас идет не об играх…

      В общем (IMHO) :
      С производительностью вьпорта проблем не должно возникнуть.

      PS
      Если все же придете к выводу что 192бит вам не хватит…
      То лучше потратить ровно на 25$ больше и взять GTX 560 на 256бит… Если от хорошего издателя то на 40$…

  10. Помогите определится с видеокартой для 3d max 2012, выбираю между GTX 460 1G 256bit, GTX 560 ti 1G 256bit, и GTX 560 ti 2G 256bit. На сколько хуже будет 460? и если все таки брать 560 то стоит ли брать 2гб или одного хватит?

Извините, в данный момент комметарии закрыты.

© 2008 - 2018 3dyuriki.com
Для связи со мной 3dyuriki@gmail.com