Сегодняшнюю статью я хотел бы посвятить рассказу о том, как мы с моим другом Серёгой "модернизировали" видеокарту Leadtek WinFast FX 5700.
Собственно говоря всё началось с того, что Серёга как то раз невзначай упомянул о разгонном потенциале своего фирменного графического адаптера. Я будучи немного осведомлён в этих вопросах решил на практике уточнить каков предел аппаратных возможностей данной видеокарты при учёте её разгона. Но как потом показали дальнейшие события определённые трудности имеют место быть, и надо отметить оставляют крайне неприятный осадок при первых неудачных попытках разгона. Занимавшись форсированием частот на чипе и памяти ещё с тех времён, когда у меня был 2-ой Geforce от Абита я был несколько озадачен результатами первых попыток. Точнее сказать результатов как таковых не было вообще, любые попытки хоть самую малость приподнять текущие значения частот выражались жутчаишими тормозами в элементарных 3D приложениях или попросту говоря играх. Более того, досадно становилось от состояния собственной беспомощности в вопросах ранее не вызывавших каких либо трудностей в принципе. Сколько себя помню с видеокартами серий Geforce 2, 3, 4 у меня всё проходило по хорошо обкатанному сценарию, а именно я первоначально ступенчато поднимал частоты ядра и памяти Riva Tuner-ом стараясь сохранять их первоначальное соотношение, затем проходило поэтапное тестирование в 3DMark в целях определения граничных значений частот и достижения компромисса стабильности и производительности, в дальнейшем я редактировал исходный биос видеокарты замещая рабочие значения частот полученными в результате тестирования, ну и в заключение происходила прошивка откорректированного биоса и все были рады. Но возвращаюсь к рассказу о перепитиях разгона Серёгиной видеокарты... Получив яркие свидетельства серьёзных проблем в плане разгона, выражающиеся в значительном снижении производительности при сколь угодно малом разгоне я углубился в пучину, но не морскую, а информационную - т.е Интернет в поисках ответа на загадочное поведение "теоретически ускорившейся видеокарты".. И вот что я обнаружил на сайте http://www.nvworld.ru/
"Что такое "автотормоз" и как можно его отключить/обойти?
"Автотормоз" - это бытовое название интеллектуальной защиты от переразгона в драйвере, начиная с версии 40.ХХ. Защита основана на контроле состояния графического процессора, и работает лишь с видеопроцессорами GeForceFX и более новыми. Для видеокарт, оснащенных термодатчиком, параллельно контролируется температура ядра чипа. Если в работе чипа стали возникать ошибки, либо температура превысила допустимый уровень, происходит принудительный перевод карты на безопасный уровень частот и энергопотребления. Драйвер проверяет работоспособность видеочипа после применения разгона, и во время выполнения 3D приложений с использованием аппаратного ускорения. Работа автотормоза приводит к двум типичным проблемам:
- Если видеопроцессор не прошел проверку после применения разгона при загрузке операционной системы, то частоты сбрасываются до исходного уровня для режима без 3D ускорения, и фиксируются в этом сеансе работы как для режима выполнения 2D приложений, так и для режима 3D приложений. После перезагрузки будут установлены исходные для видеокарты частоты для всех режимов.
- Если видеочип не прошел проверку во время исполнения 3D приложений, то он переводится в специальный режим "low power 3D" с пониженными частотой и напряжением питания, и удерживается в таком состоянии вплоть до момента, когда чип снова начнет проходить проверку (или до снижения температуры ниже уровня срабатывания защиты). Проявляется это как лаг во время игры. Рекомендованным решением проблем является ограничение разгона уровнем, определенным с помощью функции автодетекта предельного разгона карты в штатном средстве разгона в панели драйвера. Повысить этот предел можно улучшением охлаждения видеопроцессора. Если снижение в "low power 3D" не помогло, то карта переходит в режим 2D и удерживается в нем до перезагрузки
Отключить "автотормоз" возможно фиксированием одинаковых частот для всех режимов работы видеокарты с помощью RivaTuner или путем редактирования BIOS видеокарты. Для фиксирования в RivaTuner надо в режиме PowerUser загрузить базу ключей RivaTuner.rtd и создать ключ реестра EnablePerfLevelForcing в группе NVIDIA\Overclocking с значением true (см. иллюстрацию). Тогда в панели разгона RivaTuner появится опция "Force constant performance level" (см. иллюстрацию), включение которой зафиксирует частоты для всех режимов карты по уровню разгона для 3D режима. Недостатком метода является тот факт, что частота и энергопотребление будет постоянно высокими, даже если функции 3D ускорения не используются. Это приведет к большему нагреву карты и к повышенной нагрузке на систему стабилизации электропитания.
Другим вариантом является прошивка BIOS от видеокарт производителей, не использующих разделение на уровни производительности, например фирмы ASUS. Тротлинг в форме перехода на более щадящие частоты/напряжения при использовании таких BIOS невозможен. Однако, имеются свидетельства, что автотормоз при этом не отключается. Просто вместо снижения частоты происходит явление значительного сброса производительности, предположительно за счет пропуска циклов в работе драйвера.
Иными словами из всего вышеперечисленного я сделал вывод о принудительном сбросе видеокартой частоты до уровня в режиме 2D, иначе я не мог объяснить катастрофическое явно выраженное падение производительности при малейшем намёке на разгон. Система до боли напоминала пропуск тактов при работе процессора Pentium 4 в режимах температур близких к критическим. Теперь когда я более-менее определился с очертаниями "противника" было решено заняться улучшением охлаждения или лучше сказать частичной модернизацией.
Опять стандартное крепление парой пластиковых штифтов, сняв которое мы получаем доступ к поверхности графического процессора. В качестве обновлённого термоинтерфейса между поверхностями чипа и радиатора я использовал термопасту АлСил 3. Ещё хотелось бы акцентировать внимание на одной немаловажной детали - кулер на видеокарте с лицевой стороны накрыт мелкой сеткой, плюсы и минусы использования которой, можно до бесконечности обсуждать, но на практике она весьма способствует накоплению пыли на рёбрах и пространстве непосредственно находящемся по нею. По достижению "критической массы пали", как в ядерной физике происходит эффект схожий топкой печки, изрядное количество забившейся пыли основательно перекрывает доступ "проточному" воздуху и "пациенту" становится совсем жарко.....и тяжесть состояния осложняется систематической закупоркой воздуховедущих каналов и чрезвычайно мелкой структурой накрывающей сетки. Не долго думая, решено было избавиться от этого "атавизма" в кратчайшие сроки.
А вот собственно говоря, что получилось в итоге...
Надо сказать температура в простое упала на 2-3 градуса, в рабочем режиме около 5. Теперь можно было переходить непосредственно к разгону. Было решено установить фиксированные значения частот для всех режимов работы видеокарты. Поэтапно этот процесс выглядит следующим образом:
1) Извлечение текущего образа Bios видеокарты.
2) Редактирование Bios-a (Изменение частотных рядов чипа и памяти, установление фиксированных значений частот для всех режимов работы).
3) Прошивка изменённого Bios-а.
По такому сценарию я уже неоднократно производил разгон видеокарт, но в этот раз мне пришлось столкнуться с определёнными проблемами, способы разрешения которых я приведу ниже.
Этап первый - "изъятие"
Попытка воспользоваться функцией программы X-BIOS Editor "прочесть из памяти"
не увенчалась успехом. Тогда было решено извлечь образ Bios-а утилиткой NiBiTor
Сохраняем для удобства файл-образ Bios-а видеокарты под именем old.rom.
Этап второй - "костоправ"
Открыть извлечённый Bios (old.rom) X-BIOS Editor сразу не удалось, вернее открыть получилось, но таблица инициализационных частот отсутствовала....
Вот так незадача!!! Для решения этой проблемы необходимо предварительно загружать в программу X-BIOS Editor образ Bios-а от Асустековской видеокарты FX-5200, а затем необходимый (old.rom), т.е по шагам, наши действия: Открыть - Bios Asus FX-5200 - Открыть - Bios (old.rom), все манипуляции последовательны и закрывать программу не нужно, в таком случае частотный ряд становится доступен для редактирования.
Заменив верхние позиции значений частот на нужные жмём 2 раза DUP - фиксируя равные значения для каждой из строк столбца. Хотел бы также заметить, что граничные частоты, которые "зашивал" я были получены экспериментально, плавным изменением с шагом в 25MHz для чипа и 10MHz для памяти, т.е я изменял значения и прошивал и так 3 раза. Возникает резонный вопрос о гарантиях непревышения "болевого порога" видеокарты? В моём случае результат (значения частот), при котором видеокарта не стартанула бы не был категоричен, т.к имелась PCI-видеокарта Alliance Semiconductor, и всегда можно было откатиться на предыдущий вариант. Так что одним словом для подобного рода экспериментов запасаемся PCI- видеокартой. А теперь немного статистики: скажу сразу, в моём случае , были достигнуты частоты 500MHz для графического чипа и 600MHz для памяти - это вообщем-то не предел, но для дальнейшего разгона требуется установить(посадить на термоклей АлСил 5) самодельные радиаторы на микросхемы памяти и заменить штатный кулер на что -то более серьёзное. Тестирование выявило прирост производительности в 1 000 баллов по шкале 3DMark 2001. Но я немного отвлёкся....После того как были откорректированы ряды частот записываем изменённый биос и переходим к следующему этапу. Да кстати попутно можно исправить символьный набор....
Этап финальный - "изменение сознания "
Осталось только залить исправленный биос....не буду повторяться (подробно изложил сущность процедуры здесь), просто копируем на дискетту или в папку на жестком диске (файловая система раздела FAT32, иначе в DOS-е её не увидать), далее грузимся с компашки или той же дискетты и прошиваем командой nvflash -5 -6 new.rom (новый, откорректированный нами, Bios видеокарты).
Маслёнков Андрей
пятница, 30 декабря 2005 г.