К списку форумов К списку тем
Регистрация    Правила    Главная форума    Поиск   
Имя: Пароль:
Рекомендовать в новости

SSD диски (для 1С в том числе) и не только

Гость
0 - 18.07.2015 - 17:02
Почему.
Скрипт архивирует папку с одного SSD на другой долго (20 минут), хочется в итоге разобраться.

Нашёл программу замера скорости чтения/записи на накоптели
http://crystalmark.info/download/index-e.html

http://prntscr.com/7u4q5w - портабл версия 2.8Мб

Померял, сравнил с тем, что нарылось в инете и что-то оно меня не порадовало... Результаты замеров приведу ниже.


Предлагаю.
Провести замеры производительности дисков (HDD/SSD/...)



Гость
41 - 20.07.2015 - 22:57
реально при архивировании
чтение в пределах 12-22Мб/сек
запись 3-8 Мб/сек
с учетом загрузки процессора 60-97% бОльшего видимо не добиться от WinRar.
Гость
42 - 21.07.2015 - 04:01
7-zip
вот такой скрипт


@Echo Off

Set DataPath=C:\Temp
Set ArchPath=D:\Temp
Set SevenZipPath=%ProgramFiles%\7-Zip

Echo %Path%|Find "7-zip">nul||Set Path=%Path%;%SevenZipPath%
For /F "tokens=1-3 delims=." %%A In ("%Date%") Do (Set DD=%%A&Set MM=%%B&Set YY=%%C)
For /F "delims=" %%A In ('Dir "%DataPath%" /AD /B') Do (7z a "%ArchPath%\%DD%.%MM%.%YY:~2%_%%A.7z" "%DataPath%\%%A")
Pause&Exit


жмёт лучше на 5-7%
но вдвое дольше WinRAR'a
Гость
43 - 21.07.2015 - 04:03
версия 15.05 beta [64-bit]
Гость
44 - 21.07.2015 - 04:19
9-Ткачик > может поправишь что-то в скрипте? для ускорения
Гость
45 - 21.07.2015 - 08:04
Код:
Param(
    [string]$Destination,
    [string]$BackUpDir
      )

$TimeSpan = New-TimeSpan -Hours 23
$DateTime = (Get-Date) - $TimeSpan

ForEach ($DBBackUpDir In Get-ChildItem $BackUpDir)
**
    $DBName = $DBBackUpDir.Name
    $TargetZipPath = $Destination + "\" + $DBName + "\"
    $sourcedir = $DBBackUpDir.FullName
    $ZipName = (Get-Date -DisplayHint DateTime -Format yyyy_MM_dd_HH_mm_ss) + ".zip"
    $zipfilename = $BackUpDir + "\" + $ZipName

    #удаляем старые резервные копии
    Get-ChildItem $sourcedir -Recurse | Where-Object **$_.LastWriteTime -lt $DateTime**| Remove-Item

    #Резервное копирование средствами .NET
    Add-Type -AssemblyName "System.IO.Compression.FileSystem"
    $compressionLevel = [System.IO.Compression.CompressionLevel]::Optimal
   
    [System.IO.Compression.ZipFile]::CreateFromDirectory($sourcedir, $zipfilename, $compressionLevel, $false)

    #Если архив создан - копируем его в место назначения

    If (Test-Path $zipfilename)
    **
        If (-not (Test-Path $TargetZipPath))#если бэкап есть, а хранилища в сети для него нет - создадим его
        **
            New-Item -Path $TargetZipPath -ItemType "directory"
        **
        Copy-Item -Path $zipfilename -Destination $TargetZipPath
    **

    #Если архив успешно перенесен по месту назначения - удаляем его на месте создания
    If (Test-Path ($TargetZipPath + $ZipName))
    **
        Get-Item $zipfilename | Remove-Item
    **
**
Гость
46 - 23.07.2015 - 01:30
Короче, тупые криворукие 1Сники взялись за непонятные дела (уж лучше бы подрядились ямы для компоста и гуана копать).

Не проще все эти проблемы возложить на Департамент поддержки и сопровождения информационных систем?
Там специально обученных специалистов целая рота...
Гость
47 - 23.07.2015 - 01:33
И юристов даже аж 3 штуки.
Гость
48 - 23.07.2015 - 01:38
Можно, как вариант, фирму хьюлетт-паккард пригласить на ковёр и устроить им скандал и геноцид.
Чо это блин, их диски так долго копируются???

Но я бы точно не стал бы париться с вариантами типа (45).
Гость
49 - 23.07.2015 - 11:30
Всё лениво читать, в двух словах - какой профит ожидаестся?
Гость
50 - 23.07.2015 - 11:38
+ у нас-то, у ленивых криптовалюта сама на облачных майнингах капает
ЗЫ про тупых не знаю, стараюсь не общаться. Но думаю как-то все-тки живут
Гость
51 - 23.07.2015 - 12:01
Зелёный тролль, а на чём у тебя расположен каталог временных файлов и файл (файлы) подкачки? На системном SSD 120ГБ? Если будешь архивировать 100 ГБ на него же, там места может и не хватить. Не быстрее ли будет и проще не архивировать, а просто сохранять копии баз на обычный HDD?
Гость
52 - 23.07.2015 - 12:10
Че, вообще ответить некокому? ну вы эта, модераторы.. шо за м"уней" занимаетесь, даже уже мне интересно?
Гость
53 - 23.07.2015 - 13:46
зачем сравнивать теплое с мягким ? ну выгружается или архивируется база 3-5 минут, потом полученное за 1 мин копируется в 2-3 нужных места. Удава в попугаях измеряем
Гость
54 - 24.07.2015 - 03:27
51-GSokolov > да, на системном 120Gb. интересная мысль с просто копированием на HDD.


(45) мне не знакомо, это Windows PowerShell ?
таких вот проблем
"Несморя на то, что через пользовательский интерфейс Windows создать «Сжатую ZIP-папку» проще простого, в результате поиска встроенного аналога командной строки меня постиг облом №1. Для реализации, собственно, функции архивирования для оригинальной Windows из коробки, к сожалению, так или иначе требовалась либо доустановка NET Framework, либо сторонних командлетов Powershell, либо файлов из Resource Kit, либо чего-то еще.

Опробовав ряд вышеперечисленных вариантов меня постиг облом №2: на больших объемах архивируемых данных (начиная от пары сотен гигабайт) одни попросту вылетали, другие съедали всю память и начинали грузить сервер, третьи еще каким-то образом начинали чудить."


http://habrahabr.ru/post/246743/

не наблюдалось?
Гость
55 - 24.07.2015 - 03:45
53-Jimbo > с этим разобрался. да, копирование достаточно быстрое между SSD.
теперь архиватор ищу быстрый.

у меня тупой вопрос созрел.
если копировать файл с одного несистемного диска, на другой несистемный диск (возможно сетевой), как-то это влияет на системный диск(темпы, логи, хз чего ещё)?
и соответственно, если копировать с несистемного диска другого компа по сети, то на системном диске того компа с которого копируем что-то происходит в процессе копирования?
Гость
56 - 24.07.2015 - 03:48
не архивируя, просто копировать
Гость
57 - 24.07.2015 - 11:47
Цитата:
Сообщение от Зелёный тролль Посмотреть сообщение
мне не знакомо, это Windows PowerShell ?
Это он.
Файл резервной копии самой большой базы весит сейчас 104 ГБ. Все резервные копии жмутся и переносятся в хранилище по отдельности. Самая большая сжимается до 11 ГБ и переносится на nas за час. Сбоев и проблем с ресурсами - нет.
Гость
58 - 24.07.2015 - 12:52
выгрузка из 1с в *.dt по скорости как?
Гость
59 - 24.07.2015 - 13:15
58-Jimbo > никак. *.dt предназначен для переноса данных при миграции с одной СУБД на другую. Для резервных копий не используется.
Гость
60 - 24.07.2015 - 14:23
(59) еще как используется) цельная и сжатая копия базы. Не все архиваторы даже так сожмут
Гость
61 - 24.07.2015 - 16:29
60-Jimbo > http://its.1c.ru/db/metod8dev#content:2922:hdoc
RTFM.
Ну или жди того чудесного дня, когда "цельный" dt помашет тебе ручкой и не загрузится. Он это может и делает.
Гость
62 - 24.07.2015 - 22:31
55,56-Зелёный тролль > Если не используются промежуточные программы или сетевые экраны, то временные файлы не создаются, они не нужны, соответственно копирование самое быстрое, определяется скоростью чтения-записи дисков и дискового интерфейса. При архивировании или копирования из стороннего источника сначала может создаваться временный файл, который затем переносится в конечное место. Проверяется наблюдением за содержимым папки %TEMP%.


К списку вопросов






Copyright ©, Все права защищены