![]() | [1] [2] |
реально при архивировании чтение в пределах 12-22Мб/сек запись 3-8 Мб/сек с учетом загрузки процессора 60-97% бОльшего видимо не добиться от WinRar. |
7-zip вот такой скрипт [em]@Echo Off Set DataPath=C:\Temp Set ArchPath=D:\Temp Set SevenZipPath=%ProgramFiles%\7-Zip Echo %Path%|Find "7-zip">nul||Set Path=%Path%;%SevenZipPath% For /F "tokens=1-3 delims=." %%A In ("%Date%") Do (Set DD=%%A&Set MM=%%B&Set YY=%%C) For /F "delims=" %%A In ('Dir "%DataPath%" /AD /B') Do (7z a "%ArchPath%\%DD%.%MM%.%YY:~2%_%%A.7z" "%DataPath%\%%A") Pause&Exit[/em] жмёт лучше на 5-7% но вдвое дольше WinRAR'a |
версия 15.05 beta [64-bit] |
9-Ткачик > может поправишь что-то в скрипте? для ускорения |
[code]Param( [string]$Destination, [string]$BackUpDir ) $TimeSpan = New-TimeSpan -Hours 23 $DateTime = (Get-Date) - $TimeSpan ForEach ($DBBackUpDir In Get-ChildItem $BackUpDir) ** $DBName = $DBBackUpDir.Name $TargetZipPath = $Destination + "\" + $DBName + "\" $sourcedir = $DBBackUpDir.FullName $ZipName = (Get-Date -DisplayHint DateTime -Format yyyy_MM_dd_HH_mm_ss) + ".zip" $zipfilename = $BackUpDir + "\" + $ZipName #удаляем старые резервные копии Get-ChildItem $sourcedir -Recurse | Where-Object **$_.LastWriteTime -lt $DateTime**| Remove-Item #Резервное копирование средствами .NET Add-Type -AssemblyName "System.IO.Compression.FileSystem" $compressionLevel = [System.IO.Compression.CompressionLevel]::Optimal [System.IO.Compression.ZipFile]::CreateFromDirectory($sourcedir, $zipfilename, $compressionLevel, $false) #Если архив создан - копируем его в место назначения If (Test-Path $zipfilename) ** If (-not (Test-Path $TargetZipPath))#если бэкап есть, а хранилища в сети для него нет - создадим его ** New-Item -Path $TargetZipPath -ItemType "directory" ** Copy-Item -Path $zipfilename -Destination $TargetZipPath ** #Если архив успешно перенесен по месту назначения - удаляем его на месте создания If (Test-Path ($TargetZipPath + $ZipName)) ** Get-Item $zipfilename | Remove-Item ** **[/code] |
Короче, тупые криворукие 1Сники взялись за непонятные дела (уж лучше бы подрядились ямы для компоста и гуана копать). Не проще все эти проблемы возложить на Департамент поддержки и сопровождения информационных систем? Там специально обученных специалистов целая рота... |
И юристов даже аж 3 штуки. |
Можно, как вариант, фирму хьюлетт-паккард пригласить на ковёр и устроить им скандал и геноцид. Чо это блин, их диски так долго копируются??? Но я бы точно не стал бы париться с вариантами типа (45). |
Всё лениво читать, в двух словах - какой профит ожидаестся? |
+ у нас-то, у ленивых криптовалюта сама на облачных майнингах капает ЗЫ про тупых не знаю, стараюсь не общаться. Но думаю как-то все-тки живут |
Зелёный тролль, а на чём у тебя расположен каталог временных файлов и файл (файлы) подкачки? На системном SSD 120ГБ? Если будешь архивировать 100 ГБ на него же, там места может и не хватить. Не быстрее ли будет и проще не архивировать, а просто сохранять копии баз на обычный HDD? |
Че, вообще ответить некокому? ну вы эта, модераторы.. шо за м"уней" занимаетесь, даже уже мне интересно? |
зачем сравнивать теплое с мягким ? ну выгружается или архивируется база 3-5 минут, потом полученное за 1 мин копируется в 2-3 нужных места. Удава в попугаях измеряем |
51-GSokolov > да, на системном 120Gb. интересная мысль с просто копированием на HDD. (45) мне не знакомо, это Windows PowerShell ? таких вот проблем [em]"Несморя на то, что через пользовательский интерфейс Windows создать «Сжатую ZIP-папку» проще простого, в результате поиска встроенного аналога командной строки меня постиг облом №1. Для реализации, собственно, функции архивирования для оригинальной Windows из коробки, к сожалению, так или иначе требовалась либо доустановка NET Framework, либо сторонних командлетов Powershell, либо файлов из Resource Kit, либо чего-то еще. Опробовав ряд вышеперечисленных вариантов меня постиг облом №2: на больших объемах архивируемых данных (начиная от пары сотен гигабайт) одни попросту вылетали, другие съедали всю память и начинали грузить сервер, третьи еще каким-то образом начинали чудить."[/em] [url]http://habrahabr.ru/post/246743/[/url] не наблюдалось? |
53-Jimbo > с этим разобрался. да, копирование достаточно быстрое между SSD. теперь архиватор ищу быстрый. у меня тупой вопрос созрел. если копировать файл с одного несистемного диска, на другой несистемный диск (возможно сетевой), как-то это влияет на системный диск(темпы, логи, хз чего ещё)? и соответственно, если копировать с несистемного диска другого компа по сети, то на системном диске того компа с которого копируем что-то происходит в процессе копирования? |
не архивируя, просто копировать |
[quote=Зелёный тролль;39621272]мне не знакомо, это Windows PowerShell ?[/quote] Это он. Файл резервной копии самой большой базы весит сейчас 104 ГБ. Все резервные копии жмутся и переносятся в хранилище по отдельности. Самая большая сжимается до 11 ГБ и переносится на nas за час. Сбоев и проблем с ресурсами - нет. |
выгрузка из 1с в *.dt по скорости как? |
58-Jimbo > никак. *.dt предназначен для переноса данных при миграции с одной СУБД на другую. Для резервных копий не используется. |
(59) еще как используется) цельная и сжатая копия базы. Не все архиваторы даже так сожмут |
60-Jimbo > [url]http://its.1c.ru/db/metod8dev#content:2922:hdoc[/url] RTFM. Ну или жди того чудесного дня, когда "цельный" dt помашет тебе ручкой и не загрузится. Он это может и делает. |
55,56-Зелёный тролль > Если не используются промежуточные программы или сетевые экраны, то временные файлы не создаются, они не нужны, соответственно копирование самое быстрое, определяется скоростью чтения-записи дисков и дискового интерфейса. При архивировании или копирования из стороннего источника сначала может создаваться временный файл, который затем переносится в конечное место. Проверяется наблюдением за содержимым папки %TEMP%. |
Текущее время: 12:41. Часовой пояс GMT +3. | [1] [2] |