0
- 18.07.2015 - 17:02
|
Почему. Скрипт архивирует папку с одного SSD на другой долго (20 минут), хочется в итоге разобраться. Нашёл программу замера скорости чтения/записи на накоптели http://crystalmark.info/download/index-e.html http://prntscr.com/7u4q5w - портабл версия 2.8Мб Померял, сравнил с тем, что нарылось в инете и что-то оно меня не порадовало... Результаты замеров приведу ниже. Предлагаю. Провести замеры производительности дисков (HDD/SSD/...) | |
41
- 20.07.2015 - 22:57
|
реально при архивировании чтение в пределах 12-22Мб/сек запись 3-8 Мб/сек с учетом загрузки процессора 60-97% бОльшего видимо не добиться от WinRar. | |
42
- 21.07.2015 - 04:01
|
7-zip вот такой скрипт @Echo Off Set DataPath=C:\Temp Set ArchPath=D:\Temp Set SevenZipPath=%ProgramFiles%\7-Zip Echo %Path%|Find "7-zip">nul||Set Path=%Path%;%SevenZipPath% For /F "tokens=1-3 delims=." %%A In ("%Date%") Do (Set DD=%%A&Set MM=%%B&Set YY=%%C) For /F "delims=" %%A In ('Dir "%DataPath%" /AD /B') Do (7z a "%ArchPath%\%DD%.%MM%.%YY:~2%_%%A.7z" "%DataPath%\%%A") Pause&Exit жмёт лучше на 5-7% но вдвое дольше WinRAR'a | |
43
- 21.07.2015 - 04:03
| версия 15.05 beta [64-bit] | |
44
- 21.07.2015 - 04:19
| 9-Ткачик > может поправишь что-то в скрипте? для ускорения | |
45
- 21.07.2015 - 08:04
| Код: Param( [string]$Destination, [string]$BackUpDir ) $TimeSpan = New-TimeSpan -Hours 23 $DateTime = (Get-Date) - $TimeSpan ForEach ($DBBackUpDir In Get-ChildItem $BackUpDir) ** $DBName = $DBBackUpDir.Name $TargetZipPath = $Destination + "\" + $DBName + "\" $sourcedir = $DBBackUpDir.FullName $ZipName = (Get-Date -DisplayHint DateTime -Format yyyy_MM_dd_HH_mm_ss) + ".zip" $zipfilename = $BackUpDir + "\" + $ZipName #удаляем старые резервные копии Get-ChildItem $sourcedir -Recurse | Where-Object **$_.LastWriteTime -lt $DateTime**| Remove-Item #Резервное копирование средствами .NET Add-Type -AssemblyName "System.IO.Compression.FileSystem" $compressionLevel = [System.IO.Compression.CompressionLevel]::Optimal [System.IO.Compression.ZipFile]::CreateFromDirectory($sourcedir, $zipfilename, $compressionLevel, $false) #Если архив создан - копируем его в место назначения If (Test-Path $zipfilename) ** If (-not (Test-Path $TargetZipPath))#если бэкап есть, а хранилища в сети для него нет - создадим его ** New-Item -Path $TargetZipPath -ItemType "directory" ** Copy-Item -Path $zipfilename -Destination $TargetZipPath ** #Если архив успешно перенесен по месту назначения - удаляем его на месте создания If (Test-Path ($TargetZipPath + $ZipName)) ** Get-Item $zipfilename | Remove-Item ** ** | |
46
- 23.07.2015 - 01:30
|
Короче, тупые криворукие 1Сники взялись за непонятные дела (уж лучше бы подрядились ямы для компоста и гуана копать). Не проще все эти проблемы возложить на Департамент поддержки и сопровождения информационных систем? Там специально обученных специалистов целая рота... | |
47
- 23.07.2015 - 01:33
| И юристов даже аж 3 штуки. | |
48
- 23.07.2015 - 01:38
|
Можно, как вариант, фирму хьюлетт-паккард пригласить на ковёр и устроить им скандал и геноцид. Чо это блин, их диски так долго копируются??? Но я бы точно не стал бы париться с вариантами типа (45). | |
49
- 23.07.2015 - 11:30
| Всё лениво читать, в двух словах - какой профит ожидаестся? | |
50
- 23.07.2015 - 11:38
|
+ у нас-то, у ленивых криптовалюта сама на облачных майнингах капает ЗЫ про тупых не знаю, стараюсь не общаться. Но думаю как-то все-тки живут | |
51
- 23.07.2015 - 12:01
| Зелёный тролль, а на чём у тебя расположен каталог временных файлов и файл (файлы) подкачки? На системном SSD 120ГБ? Если будешь архивировать 100 ГБ на него же, там места может и не хватить. Не быстрее ли будет и проще не архивировать, а просто сохранять копии баз на обычный HDD? | |
52
- 23.07.2015 - 12:10
| Че, вообще ответить некокому? ну вы эта, модераторы.. шо за м"уней" занимаетесь, даже уже мне интересно? | |
53
- 23.07.2015 - 13:46
| зачем сравнивать теплое с мягким ? ну выгружается или архивируется база 3-5 минут, потом полученное за 1 мин копируется в 2-3 нужных места. Удава в попугаях измеряем | |
54
- 24.07.2015 - 03:27
|
51-GSokolov > да, на системном 120Gb. интересная мысль с просто копированием на HDD. (45) мне не знакомо, это Windows PowerShell ? таких вот проблем "Несморя на то, что через пользовательский интерфейс Windows создать «Сжатую ZIP-папку» проще простого, в результате поиска встроенного аналога командной строки меня постиг облом №1. Для реализации, собственно, функции архивирования для оригинальной Windows из коробки, к сожалению, так или иначе требовалась либо доустановка NET Framework, либо сторонних командлетов Powershell, либо файлов из Resource Kit, либо чего-то еще. Опробовав ряд вышеперечисленных вариантов меня постиг облом №2: на больших объемах архивируемых данных (начиная от пары сотен гигабайт) одни попросту вылетали, другие съедали всю память и начинали грузить сервер, третьи еще каким-то образом начинали чудить." http://habrahabr.ru/post/246743/ не наблюдалось? | |
55
- 24.07.2015 - 03:45
|
53-Jimbo > с этим разобрался. да, копирование достаточно быстрое между SSD. теперь архиватор ищу быстрый. у меня тупой вопрос созрел. если копировать файл с одного несистемного диска, на другой несистемный диск (возможно сетевой), как-то это влияет на системный диск(темпы, логи, хз чего ещё)? и соответственно, если копировать с несистемного диска другого компа по сети, то на системном диске того компа с которого копируем что-то происходит в процессе копирования? | |
56
- 24.07.2015 - 03:48
| не архивируя, просто копировать | |
57
- 24.07.2015 - 11:47
| Это он. Файл резервной копии самой большой базы весит сейчас 104 ГБ. Все резервные копии жмутся и переносятся в хранилище по отдельности. Самая большая сжимается до 11 ГБ и переносится на nas за час. Сбоев и проблем с ресурсами - нет. | |
58
- 24.07.2015 - 12:52
| выгрузка из 1с в *.dt по скорости как? | |
59
- 24.07.2015 - 13:15
| 58-Jimbo > никак. *.dt предназначен для переноса данных при миграции с одной СУБД на другую. Для резервных копий не используется. | |
60
- 24.07.2015 - 14:23
| (59) еще как используется) цельная и сжатая копия базы. Не все архиваторы даже так сожмут | |
61
- 24.07.2015 - 16:29
|
60-Jimbo > http://its.1c.ru/db/metod8dev#content:2922:hdoc RTFM. Ну или жди того чудесного дня, когда "цельный" dt помашет тебе ручкой и не загрузится. Он это может и делает. | |
62
- 24.07.2015 - 22:31
| 55,56-Зелёный тролль > Если не используются промежуточные программы или сетевые экраны, то временные файлы не создаются, они не нужны, соответственно копирование самое быстрое, определяется скоростью чтения-записи дисков и дискового интерфейса. При архивировании или копирования из стороннего источника сначала может создаваться временный файл, который затем переносится в конечное место. Проверяется наблюдением за содержимым папки %TEMP%. | |
| Интернет-форум Краснодарского края и Краснодара |