Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
https://puvox.software/blog/windows-automatically-commit-push-git-repository-once-in-every-x-day-minute-hours/
Почитай, может оно?
я и говорю, что могу в linux повесить в крон задачу fossil commit -m `time` etc.. (фоссиль вместо гит, котому как комерция и всё приватно)
во первых это костыльное решение, во вторых репозитарий это немного не про бекапы, это про другое.
простой штуки которая сохраняет (хоть куда, в другой каталог) копии по часам за последние два дня, и позволяет просто восстановить - ТАКОГО ПРОСТО НЕТУ
кстати про linux - там можно версионную ФС выбрать и подключить. Но опять-же версии и временные бекапы это разные вещи
Картина маслом - заглючил комп и всё что было открыто в MetaEditor и прямо/косвенно связано с тестером покрылося нулями. Файлы уничтожены безвозвратно, они поверху затёрты, как и труд за пару дней.
Ждать милостей от природы не стоит, поэтому изыскивается/рассматривается простой софт, который вместо редактора поддерживает бекапы.
Пожелания крайне простые - автоматически, например раз в час сбрасывать в архив, в zip или другой каталог, изменённые файлы (.mqh,mq4,mq5). И иметь возможность восстановления за последние день-два.
К сожалению:
- штатными средствами MQ тут не обойтись.
- VCS (контроль версия а-ля Git) тоже, потому что версий ещё нет, всё в работе было, какие коммиты...
- системные штуки так-же. Я пишу довольно быстро и принуждать системный бекап к такой частоте, это чрезмерно
- СПЕЦИФИКА MetaXXX - файлы содержащие 0 должны игнорироваться.
А пока всё это ищется, буквально требование к разработчикам редактора, тестера, отладчика и профайлера - обеспечьте фиксацию правок пользователя.
Не держите файлы открытыми и не синхронизованными на диск. Добавьте бекап-копии.
PS/ слава богу, прошло порядка пяти часов с аварии и могу обойтись без мата
Я думаю это приходит с опытом, что лучше иметь Бэкап сервера (Web, Домашние ......) для таких вещей.
Я попадался на Краш винтов очень много раз.
Иногда данные удавалось восстановить с других переносных ЖД, на которые автоматом все синхронизировалось каждый день.
А потом пошло поехало.
Сейчас имею сервер на 2 отказоустойчивых серверных ЖД , с которым синхронизация происходит моментально после изменения файла + версии,
Да и файлы привык сохранять после каждой функции.
Я думаю это приходит с опытом, что лучше иметь Бэкап сервера (Web, Домашние ......) для таких вещей.
Я попадался на Краш винтов очень много раз.
Иногда данные удавалось восстановить с других переносных ЖД, на которые автоматом все синхронизировалось каждый день.
А потом пошло поехало.
Сейчас имею сервер на 2 отказоустойчивых серверных ЖД , с которым синхронизация происходит моментально после изменения файла + версии,
Да и файлы привык сохранять после каждой функции.
бекап сервера раз-в-час ради двух/трёх/пяти критичных файлов - мягко говоря чрезмерно.
отчасти об том и речь, все упёрлись в какие-то космические решения для корпораций и облачных хранилищь.
Элементарной фигни - держать почасовые копии небольших критичных файлов на протяжении 2-х дней, такого почему-то нету.
PS/ про сохранение файлов - так я на это и попал и отсюда весь сыр-бор..сохранённые файл забиты нулями, после сбоя системы.
бекап сервера раз-в-час ради двух/трёх/пяти критичных файлов - мягко говоря чрезмерно.
отчасти об том и речь, все упёрлись в какие-то космические решения для корпораций и облачных хранилищь.
Элементарной фигни - держать почасовые копии небольших критичных файлов на протяжении 2-х дней, такого почему-то нету.
PS/ про сохранение файлов - так я на это и попал и отсюда весь сыр-бор..сохранённые файл забиты нулями, после сбоя системы.
Был с составе сборки Total Commander. Попробовал - супер! Раз в сутки.
Не помешал бы софт для бекапа на флешку.
Был с составе сборки Total Commander. Попробовал - супер! Раз в сутки.
сейчас по мере возможности тоже смотрю всякое разное...хотя в основном занят восстановлением утерянного
пока, у них всех, частота копирования не чаще раз в сутки. Зато возможность копирования системы, реестра, " сохраняя ссылочную целостность офисных документов", коня в пальто..
а наступивши на грабли, очень чётко всплывают тех.требования. Буквально в лоб они всплывают :-)
Критически важные файлы (а их немного) копировать как можно чаще.
Для исходников 1 час более-менее комфортно. Глубина арива 2 дня минимум (возможно логичнее 3 - что в пятницу вечером рухнуло, то в понедельник утром копии ещё не перетёрты)
У меня бэкапы делает Dropbox (подойдет любая другая похожая программа)
Каждое сохранение/компиляция кода - отправляет файл в облако.
Github и пермиты могут быть дополнительным способом бэкапа.