Обзор блока питания Seasonic SS-650JT Active PFC F3

Про эксплуатацию

Казалось бы, все просто. Пруфы есть — советуй всем подряд для своих сборок «кормильцев» мощностью 400-500 Вт да с поддержкой стандарта 80 PLUS Gold. Только есть одна загвоздка. Самый дешевый блок Thermaltake TR2 Gold 600 Вт с такими параметрами стоит 4800 рублей, а рассмотренный AeroCool KCAS 600 Вт — 3500 рублей. Разница в 1300 рублей — это, например, покупка кулера для процессора Deepcool GAMMAXX 300. Или выбор более качественного корпуса. Или приобретение еще какого-нибудь железа. По 12-вольтовой линии TR2 Gold выдает 600 Вт, а KCAS — 540 Вт. Разница небольшая. Согласитесь, есть о чем задуматься, если бюджет на сборку ПК сильно ограничен.

Блок питания с большим запасом по мощности эффективнее, тише и холоднее. С первым пунктом все ясно. Смотрим на график эффективности стандартов 80 PLUS. Наибольший КПД наблюдается при 50-процентной загрузке устройства.

Блок питания для NVIDIA GeForce RTX 2060

Для того чтобы разобраться с тем, какой блок питания нужен для видеокарты GeForce RTX 2060 сначала обратимся к официальной рекомендации, которую предоставляет компания NVIDIA на своем сайте:

https://www.nvidia.com/ru-ru/geforce/graphics-cards/rtx-2060/

Согласно этим рекомендациям, мощность БП для GeForce RTX 2060 должна составлять 500 Вт. На скриншоте внизу мы можете видеть отрывок из официальных спецификаций, где это указано.

Для того чтобы проверить эту рекомендацию можно воспользоваться онлайн калькуляторами для расчета мощности блока питания. Например, можно использовать калькулятор мощности от Be quiet:

https://www.bequiet.com/ru/psucalculator

Чтобы рассчитать требуемую мощность блока питания с помощью калькулятора нужно выбрать все основные комплектующие, которые будут использоваться при построении системы, и указать планируется ли использование USB 3.1 Gen 2 для передачи энергии и разгон.

Для примера мы выберем следующую конфигурацию с видеокартой RTX 2060:

  • Процессор: Core i9-10900 (10 ядер/20 потоков)
  • GPU: GeForce RTX 2060
  • Приводы: S-ATA 2x, P-ATA 0x
  • RAM: 4x
  • Вентиляторы: 4x
  • Водяное охлаждение: 1x Помпа, 2x Вентилятор
  • Питание по USB 3.1 Gen. 2: нет
  • Разгон: нет

С такой конфигурацией максимальная потребляемая мощность система составила 505 Вт, что полностью соответствует рекомендации NVIDIA.

Таким образом, для видеокарты RTX 2060 вполне можно рекомендовать блок питания мощностью 500 Вт. Если вы хотите иметь небольшой запас мощности, например, на случай будущего апгрейда системы, то можно взять БП на 600 Вт. Покупка более мощных блоков питания не целесообразна.

Таблица энергопотребления видеокарт

Не будем вдаваться в подробности правильного расчёта потребления электроэнергии в игровой сборка, так как эта тема для целого руководства, а остановимся на рекомендациях Nvidia и AMD по выбору БП для своих видеокарт.

В таблице указаны рекомендации без учёта разгона и запаса на апгрейд. В этом случае принято добавлять 100-150W сверху.

Модель видеокарты

Энергопотребление

Рекомендуемая

мощность БП

Nvidia RTX 30

GeForce RTX 3090

350 Вт

750 Вт

GeForce RTX 3080

320 Вт

750 Вт

GeForce RTX 3070

220 Вт

650 Вт

GeForce RTX 3060 Ti

200 Вт

600 Вт

GeForce RTX 3060

170 Вт

550 Вт

Nvidia RTX 20

GeForce RTX 2080 Ti

250 Вт

650 Вт

GeForce RTX 2080 Super

250 Вт

650 Вт

GeForce RTX 2080

215 Вт

650 Вт

GeForce RTX 2070 Super

215 Вт

650 Вт

GeForce RTX 2070

175 Вт

550 Вт

GeForce RTX 2060 Super

175 Вт

550 Вт

GeForce RTX 2060

160 Вт

500 Вт

Nvidia GTX

GeForce GTX 1660 Ti

120 Вт

450 Вт

GeForce GTX 1660 Super

125 Вт

450 Вт

GeForce GTX 1660

120 Вт

450 Вт

GeForce GTX 1650 Super

100 Вт

350 Вт

GeForce GTX 1650

75 Вт

300 Вт

GeForce GTX 1080 Ti

250 Вт

600 Вт

GeForce GTX 1080

180 Вт

500 Вт

GeForce GTX 1070 Ti

180 Вт

500 Вт

GeForce GTX 1070

150 Вт

500 Вт

GeForce GTX 1060

120 Вт

400 Вт

AMD Radeon 6000

Radeon RX 6900 XT

300 Вт

850 Вт

Radeon RX 6800 XT

300 Вт

750 Вт

Radeon RX 6800

250 Вт

650 Вт

AMD Radeon 5000

Radeon RX 5700 XT

225 Вт

600 Вт

Radeon RX 5700

180 Вт

600 Вт

Radeon RX 5600 XT

150 Вт

550 Вт

Radeon RX 5600

150 Вт

550 Вт

Radeon RX 5500 XT

130 Вт

450 Вт

Radeon RX 5500

150 Вт

550 Вт

AMD RX 500

Radeon RX 590

225 Вт

500 Вт

Radeon RX 580

185 Вт

500 Вт

Radeon RX 570

150 Вт

450 Вт

Radeon RX 560

80 Вт

450 Вт

Radeon RX 550

50 Вт

400 Вт

Как видно из приведённой таблице, согласно рекомендациям Nvidia и AMD основные покупатели блоков питания на 600-650W – это геймеры со сборками ПК уровня RTX 2080 (2070 Super) и RX 5700 (5700XT).

Про мощность

Мощность — это, пожалуй, единственный параметр, который интересует среднестатистического пользователя. Будучи ведущим рубрики «Компьютер месяца», достаточно часто отвечаю на вопрос: «а потянет ли мою систему блок питания мощностью N ватт?» В 99% случаев говорю, что справится. Иногда уточняю в стиле: «потянет, если блок питания на честные N ватт». Рассмотрим эти два момента отдельно.

Не буду расписывать принцип работы игрового компьютера. Просто знайте, что основная линия потребления энергии в любой компьютерное системе — 12 В

Если мы собираем мощный игровой десктоп, то важно знать не просто общую заявленную мощность блока, а ток, который он передает по этой шине. Вот AeroCool KCAS 600 Вт по 12-вольтовой линии обеспечивает 540 Вт

Вот на эту «честную» мощность и стоит расчитывать. Для «бронзового» 600-ваттника 540 Вт — это, кстати, весьма неплохой показатель.

Тестирование

Тестовый стенд:

  • Процессор i7 3770
  • Охлаждение — Corsair Hydro Series H105
  • Материнская плата — GIGABYTE GA-Z77X-UD3H
  • Память — DDR3 2133MHz Kingston HyperX Savage 16 Гб
  • Блок питания — Corsair RM750
  • Диск под систему — Seagate 600 SSD 480 Гб
  • Корпус — NZXT Phantom
  • Монитор — Asus PB298 2560 × 1080
  • ОС – Windows 8.1 64bit
  • Драйвер — NVIDIA GeForce 353.06

Вначале протестируем возможности системы охлаждения. Нагрузим видеокарту программой FurMark V1.10.2. показания зафиксирует программа GPU-Z. Тестирование проводилось в открытом корпусе, при этом корпусные вентиляторы на охлаждение видеокарты не влияли.

В покое температура составила 47 °С при оборотах вентилятора 1050. При этом его вообще не было слышно. Общий уровень шума составил 37 дБ. С ростом температуры обороты растут и возрастает шум от системы охлаждения.

До 80 °С обороты вентилятора были менее 2000, при этих показателях видеокарта очень тихая, уровень шума не более 45 дБ.

Под нагрузкой температура поднялась до 85 °С, обороты увеличились до 2618. Шум увеличился до 50 дБ. Выше этого значения температура не поднимается, система охлаждения пытается удержать ее в этих рамках за счет повышения оборотов вентилятора.

Далее протестируем возможности видеокарты в разгоне. Для этого мы воспользуемся утилитой EVGA PrecisionX 16.

Софтвольтмод хоть и доступен, но не использовался, все же охлаждение референсного решения оставляет желать лучшего. Увеличить частоты GPU удалось до 1250 МГц, Boost Clock при этом поднимал частоту в некоторых играх до 1452 МГц. Частота памяти была поднята до 1964 МГц. Для более эффективного охлаждения при разгоне, обороты вентилятора видеокарты были зафиксированы на значении 3000 об/мин. При таких агрессивных настройках это позволило удерживать температуру видеопроцессора ниже 80 °С.

Синтетические тесты

Данные тесты интересны тем, что позволяют сравнить между собой различные игровые сборки. Прогнав эти бенчмарки на своем игровом компьютере, вы можете сравнить цифры, и сделать вывод – есть ли необходимость в смене вашей видеокарты на что-то более производительное, или оставить все как есть.

Вначале пакеты 3DMark. Все настройки по умолчанию.

3DMark 11:

С увеличенными частотами этот тест не проходил: уровни не загружались, выдавая ошибку.

3DMark – Fire Strike:

С увеличением частоты видеоядра данный тест демонстрирует значительное увеличение значений: прирост составил 20%.

Теперь тесты Unigine:

Unigine Valley Benchmark 1.0

В этом тесте средний fps увеличился, а минимальный и максимальный остался без изменений.

Unigine Heaven Benchmark 4.0

Данный тест лучше реагирует на разгон видеокарты — прибавка порядка 25%.

Игровые тесты

Больше всего потенциальных покупателей волнует вопрос производительности видеокарты в играх. Ведь именно для этого и покупается данная видеокарта. В играх тестирование проводилось на мониторе с разрешением 2560 × 1080. Настройки качества выставлялись наибольшие возможные (их можно увидеть на скринах). Вертикальная синхронизация была отключена для демонстрации максимального fps. Результаты фиксировались программой Fraps. В некоторых играх для наглядности приведены ролики игрового процесса, записанные при помощи утилиты ShadowPlay — входящей в драйвер GeForce Experience.

Видеоролики, где мониторинг осуществляется программой MSI Afterburner, были записаны при помощи этой же программы, она наглядно демонстрирует не только fps, но и загрузку видеоядра, видеопамяти, и их частоты.

GTA 5

The Witcher 3 Wild Hunt

Far Cry 4

Watch Dogs

Battlefield 4

Assassin’s Creed Rogue

Call of Duty Advanced Warfare

WarThunder

Need for Speed Rivals

Как видим по тестам, видеокарта GeForce GTX 980 Ti справляется без проблем со всеми играми на самых высоких настройках. Особенно это заметно по минимальным кадрам в секунду. При этом демонстрируется отличная реалистичная картинка в новинках игровой индустрии. Производительности GTX 980 Ti вполне будет достаточно и для разрешения 4K и для мультимониторной конфигурации. Большой объем памяти рассчитан именно на это. В протестированных играх использовалось не так много видеопамяти, максимум 3700 — 4200 МБ.

Как разогнать видеокарту

В отличие от разгона процессора, разгон видеокарты выполняют не через BIOS, а с использованием программ и утилит. Можно выделить три типа разгона:

  1. Разгон с помощью драйвера;
  2. С использованием специальных программ для разгона, выпущенных самими производителями видеокарт;
  3. С помощью дополнительных программ.

Процесс оптимизации в принципе одинаковый для любого типа, будь то Radeon AMD или Asus. По сути, чтобы повысить производительность видеокарты нужно усилить частоту ядра и памяти и сбалансировать систему охлаждения. Рассмотрим оптимизацию конкретно на примере использования некогда одной из самых популярных программ RivaTuner В.

Ищем в интернете и скачиваем на свой компьютер саму программу RivaTuner, программу Everest, которая позволит отслеживать температуру нагревания и 3Dmark, необходимую для тестирования производительности. Устанавливаем скачанный софт.

Запускаем RivaTuner.

Кликаем на треугольный знак в правой части экрана и выбираем пункт «Системные настройки».

В системных настройках ищем строку «Кулер» и опцию низкоуровневого управления кулером. На экране появится всплывающее окно с оповещением о перезагрузке. Ставим галочку в пункте «определить всё» и кликаем «ок». Затем выставляем настройки кулера вручную: выбираем постоянный режим, устанавливаем 95% и сохраняем изменения. Если при работе компьютера кулер работает слишком громко, можно снизить значение до 80–85%. Выбираем пункт «загружать настройки с Windows»

Снова открываем окно разгона видеокарты. Включаем опцию «низкоуровневое управление разгоном» и в выскочившем окошке указываем «определить всё». Теперь два ползунка активизировались, ими можно управлять. Двигаем ползунок, изменяющий частоту ядра. Повышаем частоту постепенно, с шагом 10%. Параллельно после каждого изменения тестируем. Если тест положительный, кликаем «ок» и применяем настройки. Открываем Everest и 3Dmark. Тестируем видеокарту с изменёнными настройками. В Everest проверяем температуру — она должна быть не больше 90%. Во время тестирования тщательно следим за экраном — если изображение начнёт искажаться (появляются так называемые артефакты), прекращайте тестирование и уменьшайте частоту на 15 МГц. Запускайте тест снова. Ровно те же операции производим при высоких показателях температуры.

С помощью тестов нам необходимо найти пороговую частоту, т.е. самое высокое значение, при котором артефакты не обнаруживаются. При нормальных результатах повышаем частоту снова и снова пока не увидим искажение картинки. Далее снижаем частоту на небольшое значение и удостоверяемся, что артефакты не появляются. Так мы нашли максимально рабочую частоту видеокарты. Отмечаем её значение на листе бумаги и кликаем в настройках на «сбросить все настройки».

Займёмся оптимизацией памяти. Суть разгона та же, как и при разгоне частоты. Постепенно увеличиваем значение на 10%, следим за температурой и искажениями изображений. Аналогично с пунктом 4 находим максимальное значение памяти, записываем его. Не изменяя максимального значения памяти, устанавливаем значение частоты на максимальную (частота, которую вы записали на листике). Кликаем «тест». Если тест положительный, начинаем само тестирование. Далее следует самый значительный этап. Очень внимательно проверяем наличие артефактов при тестировании. Если артефактов не наблюдается, разгон выполнен успешно и следует проверить его на практике, то есть непосредственно в играх. Правильный разгон должен ощутимо увеличить FPS. Если в тесте все же видны искажения, снижаем частоту памяти на 10 МГц и повторяем тест. В случае если даже многократное снижение частоты не помогает устранить появление артефактов, оставляем теперешнее значение частоты памяти и снижаем частоту ядра на 10 МГц. Один или два раза повторяем процедуру до устранения артефактов. Пробуем снова немного увеличить частоту памяти.

ВАЖНО. Вы можете сами подобрать программы для контроля и тестирования

Например, 3D mark считается своеобразным эталоном программ такого типа, однако существуют другие, которые, возможно облегчат вам жизнь. Например, программа OCCT не только тестирует видеопамять, а и сама отслеживает появление артефактов.

Работа с программой для разгона видеокарты

Теперь необходимо рассмотреть особенности работы с программой MSI Afterburner, настройка видеокарты где является простым и доступным действием. Далее будут инструкции, которые позволят вам добиться желаемого результата.

Выполнение настроек

Запустите программу, где вы увидите главный экран. Можно будет заметить графу под названием Graphics Card, где указано имя видеокарты.

Немного выше нарисована кнопка в виде шестеренки. С её помощью вы сможете открыть настройки. Кликните по ней.

Есть специальная графа «Выбор ведущего графического процессора», расположенная в разделе «Основные». Укажите в ней именно ту видеокарту, которую планируете разгонять. Если у вас имеется два модуля (обычный и дискретный), также необходимо включить пункт «Синхронизировать настройки одинаковых ГП».

На той же вкладке необходимо установить галочку возле пункта «Разблокировать мониторинг напряжения».

Откройте вкладку под названием «Кулер» и выберите «Включить программный пользовательский авторежим». Это нужно для того, чтобы создать зависимость между температурой видеокарты, а также скоростью, с которой вращается вентилятор.

Работа с ползунками

Вернувшись на главный экран, следует выполнить настройку ползунков. Трогать напряжение, а также температуру и потребление энергии не рекомендуется. Fan Speed необходимо оставить на значении «Auto».

Главное, с чем придётся работать – это Core Clock и Memory Clock, то есть частота ядра и видеопамяти. Значения выставляются в зависимости от того, какая у вас видеокарта.

Параметр Core Clock следует сместить на отметку в 10-21 МГц. Затем жмите на «Применить». Для Memory Clock выберите 10-20 МГц и так же кликните на «Применить». Итогом станут цифры в виде 921 и 2072 МГц.

Тестирование

Теперь запустите мощную и требовательную игру. Разгон видеокарты через MSI Afterburner уже был реализован. Самое время для того, чтобы проверить результат. Программу не закрывайте и пару часов поиграйте в игру. Отслеживайте график температуры. Если всё работает ровно, а игра не тормозит и отсутствуют искажения изображения, вы можете продолжать увеличение показателей. Как разгонять видеокарты NVIDIA через MSI Afterburner вы уже знаете. Увеличьте показатели ещё на 10 МГц.

Вновь пробуйте играть. Действуйте до тех пор, пока не возникнет каких-то помех и искажений изображения. Если что-то уже не так, вернитесь в настройки и понизьте значения до тех показателей, когда всё работало стабильно.

Как разогнать видеокарту через MSI Afterburner

Графические ускорители разгоняют с одной целью – повышение быстродействия. Удачный оверклокинг даёт прирост fps в играх, ускоряет обработку графики и видео, визуализацию сцен. Получаемый прирост производительности разнится в зависимости от модели графики, типа нагрузки, способа оценки быстродействия.

Влияет на процент роста скорости обработки информации охлаждение, модель чипа и памяти (Hynix, Micron, Samsung) остальные комплектующие, сам экземпляр видеокарты: качество сборки, материалов, цепей питания.

Когда не стоит разгонять видеокарту?

Специалисты не рекомендуют разгонять видеокарты ноутбуков – их легко сжечь. Это подтвердят работники сервисных центров по ремонту компьютерной техники. В случае со старыми картами, возрастом лет 10 и выше разгон ради прироста 1-2 fps нецелесообразен, а вероятность вывести проработавший тысячи часов графический ускоритель большая.

Не стоит «гонять» новые устройства, если:

  • гарантийный срок не закончился;
  • если прирост производительности сомнителен (вместо комфортных 56 или 80 кадров получите 60 либо 85 fps).

Разгон GeForce 600 Series

Линейка презентовала 28-нм графическое ядро с технологией динамического управления частотой GPU Boost – изменение характеристики в соответствии с нагрузкой без превышения TDP. В чипах реализовано улучшение картинки TXAA – очищает сцены от мерцаний, сглаживает движения. Появилась возможность подключения четырёх дисплеев к одному графическому ускорителю – явная ориентация на геймерскую аудиторию, и блок NVENC – аппаратное кодирование видео.

Драйверами реализовано динамическое сверхвысокое разрешение для адаптации разделительной способности контента под экраны (обычно снижение разрешение высококачественной картинки под экраны с малым разрешением).

Параметр \ Модель карты GTX 670 GTX 680 GTX 690 GTX 650 GTX 650 Ti GTX 660 GTX 650 Ti Boost GTX 660 Ti
Core Voltage, В 1.175 1.075 1.125 1.010 1.037 1.1750 1.070 1.162
Power Limit 106% 125% 135% 107.5% 123%
Core Clock, МГц 1061 1280 1172 1240 1176 1180 + 400 1071
Memory Clock, МГц 1615 1800 1700 1552 1575 1652 1765

Стресс-тест

Компьютерные игры дают видеокарте реальную нагрузку, но полностью загрузить её работой, тем более разноплановой, неспособны. В одних игрушках графическая подсистема стабильна, демонстрирует рост производительности без перегрева, во других – вылетает, сбрасывает частоты, перегревается.

MSI Kombustor – бенчмарк для проверки стабильности графического ускорителя. Предлагает свыше 20 тестов – видов нагрузок на устройство. Задействует все вычислительные блоки, в том числе шейдерные. Для запуска теста выберите алгоритм в первом выпадающем списке (желательно оставить «Plasma (1M-particle)» с задействованием частиц), укажите разрешение своего дисплея в меню «Resolution» и жмите «Start stress test». Сглаживание (antialiasing) лучше не включать, если в корпусе установлена не мощная геймерская модель видеокарты, выпущенная в последние пару лет.

Разгон

Итак, рассмотрим, как правильно выполнить разгон видеокарты на ноутбуке или ПК.

Запускаем MSI Afterburner. Нас интересует три показателя, регулируемые ползунками:

  • Core Clock (частота GPU).
  • Memory Clock (память).
  • Power Limit.

Core Voltage, как уже говорилось ранее, лучше не трогать. Особенности утилиты таковы, что лимит энергопотребления можно увеличивать до максимума при условии наличия БП с соответствующим запасом по мощности. Увеличение частоты видеопамяти – параметр спорный: на многих современных моделях карт эта операция практически бесполезна. Но ядро разгонять стоит.

Чтобы застраховаться от разгона разогнанного чипа, жмём кнопку Reset, после чего можно передвинуть ползунок Core Clock вправо (максимум на 100 единиц). Жмём Apply и запускаем бенчмарк для сравнения производительности. Если вы перестарались, тестовая утилита слетит, и тогда уменьшаем частоту где-то на десять единиц. В противном случае пробуйте снова увеличивать Core Clock – такими итерациями вы найдёте предельное значение стабильной работы разогнанной карты.

Правда, лучше тестировать стабильность на реальных играх, погоняв их не менее получаса. Если фризов и искажений не наблюдалось – ядро разогнано оптимальным образом, иначе – снова сбавляйте частоту. Следите за температурой чипа, она не должна превышать 80°С.

Теперь можно поиграть с видеопамятью, предварительно сбросив разгон ядра кнопкой Reset. Процедура практически идентичная: добавляем около 300 МГц и далее выполняем итерации по увеличению/уменьшению частоты, в зависимости от результата.

Теперь нужно вернуть оптимальную разгонную частоту ядра и проверит работу подсистемы с двумя увеличенными параметрами. Если бенчмарк сваливается, уменьшайте частоту памяти на 10 единиц, пока не добьётесь стабильной работы.

Как разогнать встроенную видеокарту

В большинстве случаев такая операция бессмысленна из-за невысокой производительности интегрированной графической подсистемы, небольшой процент прироста производительности будет попросту незаметным. Но если сильно хочется, используйте утилиту GMABooster, принцип действия которой схож с MSI Afterburner, но эта программа ориентирована именно на интеловскую встроенную графику.

Итоги

Спасибо товарищу AMD за то, что двигает прогресс в недорогих видеокартах даже без реальных продаж своих новых моделей! Потому что «щас придёт порядок наведёт» Radeon RX 5500 угрожал только младшей GeForce GTX 1650, а RX 5500 XT и вовсе пока остаётся мифической моделью, которая выйдет в светлом будущем, но этого оказалось достаточно, чтобы NVIDIA занервничала и немного улучшила свои недорогие видеокарты.

До сих пор самой «крутой» видеокартой NVIDIA без технологии RTX была GeForce GTX 1660 Ti. Теперь вышла изначально более дешёвая (а после первоначального ажиотажа цены станут ещё приятнее) GTX 1660 SUPER с таким же уровнем производительности. Или, если так понятнее, уровнем производительности GeForce GTX 1070, за которую на момент выхода просили 30 тысяч рублей. И даже 8 Гбайт памяти не помогают старой доброй «семидесятке» вырваться вперёд.

И уж тем более они не помогают ещё более устаревшему Radeon RX 590, который был крутым на момент выхода, но теперь доживает свой век в роли «так себе, зато дёшево» и не может компенсировать собой пропасть между радикально более крутой моделью, RX 5700 (к которой без 20 тысяч не подходи, а лучше хотя бы с 22 000) и совсем уж вариантами «на тоненького» в виде GeForce GTX 1650 или RX 570/580.

Любое «а зато у него 8 Гбайт памяти!» разбивается о реальность, когда даже в разрешении 4K (а только в нём пока есть прок от такого объёма памяти) RX 590 стабильно проигрывает GeForce GTX 1660 SUPER 15-20%. Это если «по науке» и в теории. А на практике с такими настройками, при которых играм не хватает 6 Гбайт видеопамяти при 4K, обе видеокарты выдают менее 40 fps, а иногда и менее 30, поэтому такой футбол нам не нужен.

Рейтинг
( Пока оценок нет )
Понравилась статья? Поделиться с друзьями:
Сети Сити
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: