image.png1,1 Мб, 1080x1061
Взял 3 таких красавчика. Сейчас буду скачивать весь интернет. Всем советую сделать так же. Потом не 316441807 В конец треда | Веб
Взял 3 таких красавчика. Сейчас буду скачивать весь интернет. Всем советую сделать так же. Потом не нойте, что вас не предупреждали.
2 316441958
Почему двач не грузит? Даже капча не прогружает боять
Все остальное работает, только двач заглатывает
3 316442108
>>41807 (OP)
Хз че ты там собрался качать, у меня 2тб диск простаивает практически пустой, при том, что все что мне нужно на нем сохранил
4 316442186
>>42108
Сейчас игры весят по 150гб. 13 игр и уже нет 2тб.
5 316442228
>>42186
Ну игры да, для них отдельный диск у мен на 1тб и он занят полностью практически, но больше и не нужно, ведь если будет много игр установлено именно, то я никогда не пройду ни одну из них..
6 316442349
>>42186

> Сейчас игры весят по 150гб. 13 игр и уже нет 2тб.


И почти все они - кусла кала.
Как и современный интернет.
7 316442352
>>41807 (OP)
Лучше бы таблеток взял, поехавший. Пиздец просто.
8 316442386
Лучше много маленьких чем один большой. Что будешь делать если он внезапно наебнётся?
9 316442423
И таких как ты трясунов скачает тоже самое. Лучше создать группу где обьеденят диски, кто то качает фильмы, кто то игры т.д.
А то ты скачаешь ведьмака и сотни таких как и ты скачают того же ведьмака
10 316442462
>>41807 (OP)
Удачи выкачать 44 зеттабайта на 54 тб, додстер ебаный
11 316442519
>>41807 (OP)
Самое главное книги выкачать. Универсальная вечная ценность, в отличии от фильмов, аниме и игорей.
12 316442531
>>42386
Ответ очевиден - резервный backup на 18 Т
17249307022562.jpg190 Кб, 720x575
13 316442534
>>42462
сейчас придёт шиз с бесконечным сжатием
14 316442536
>>42519
А, про музыку еще забыл.
15 316442555
>>41807 (OP)
Почем взял?
16 316442561
>>41807 (OP)
Я тоже подумывал, но пока не взял. Я и нынешние то еще не забил, да и хз что качать, весь затык будет в этом.
17 316442565
>>42423

>Лучше создать группу где обьеденят диски


Это же буквально торрент, не?
18 316442589
>>42519
Я осенью скачал Флибусту, что-то около 450 гб
19 316442612
>>41807 (OP)

>>Взял 3 таких красавчика. Сейчас буду скачивать весь интернет.



Так себе идея:

1. Конторы занимающиеся профессиональным восстановлением данных с трудом работают даже с 5TB хардами, так как плотность записи данных ебейшая. Если ты с 18тб хардом к ним придешь, когда он наебнется, то в основном тебя просто нахуй пошлют. А там где не пошлют попросят слишком дохуя денег.

2. Наебнется он очень быстро. Все что выше 1ТБ имеет низкую надежность, в следствии чего, с высокой вероятностью, ломается в течении 1-2 года. Это тебе еще повезет если его просто заклинит без порчи поверхности. Но даже если просто заклинит то дядя кабанчик тебе не скажет об этом, и возьмет с тебя как за побитовое восстановление 18ТБ данных.
16705800828870.mp4189 Кб, mp4,
602x338, 0:01
20 316442614
>>41807 (OP)

>Всем советую сделать так же


При чебурнете будет запрещенны жесткие диски. Будут разрешено, только 1 терабайт на каждого гражданина, остальное будет изыматься в пользу Яндекса и ВК. Чего прятать на жестких дисках честному гражданину? Нечего! Перекачал в ВК свои фильмы и песни, и пользуйся - рабуйся.
21 316442629
>>42589
Красавчик, держи пятюню. Планирую купить жестоко и сделать то же самое.
17376296645710.png1 Мб, 1024x1280
22 316442651
>>41807 (OP)
Взял твою мамку, сейчас буду ей спускать в пизду и жопу, потом не говори что я тебя не предупреждал.
23 316442689
>>42612
А ты смотрю шаришь? А как будет ССД в роли хранилища? Там конечно ограниченное число циклов перезаписи, но если его часто не включать его же на дольше хватит чем ХДД? Или нет?
изображение.png138 Кб, 753x228
24 316442747
>>41807 (OP)
ну удачи
25 316442761
>>41807 (OP)

>гелий через микроотверстие делает пшшшш


>головка скоблит о пластину, уничтожая все данные


твои действия?
6wBtSGsaH8.jpg59 Кб, 1024x1004
26 316442765
Как понял лучше всего брать примерно по формуле

(Нужный объём в ТБ) * 2 = Количество дисков по 1 ТБ

По два каждый чтобы бекапить, т.к. бекап это в принципе единственный метод надёжного хранения информации.
27 316442793
>>42565
Торренты могут запретить, заманить, лучше объединится с радиолюбителями, по радиосвязи узнавать ссылку на скачивание или частоту и район где достаёт сигнал того у кого есть нужный фаил или ссылка на торент.
Ходить по городу, переключая каналы в поисках нужного торента. Для совсем секретных отправляться за город, в леса и горы, где в тайном убежище сиди затворник и передаёт инфу на секретные торренты.
28 316442857
>>42765
Хуево понял, иди читай про raid массив, но мысли в верном направлении.
29 316442879
>>42793

> Торренты могут запретить, заманить, лучше объединится с радиолюбителями, по радиосвязи узнавать ссылку на скачивание или частоту и район где достаёт сигнал того у кого есть нужный фаил или ссылка на торент.


> Ходить по городу, переключая каналы в поисках нужного торента. Для совсем секретных отправляться за город, в леса и горы, где в тайном убежище сиди затворник и передаёт инфу на секретные торренты.


С хуителями. Для связи сойдет и чебурнет. А так нет ничего лучше оффлайновых связей, тогда можно просто хоть с хардами в гости припереться.
30 316442898
>>42761
звоню Александру Гельевичу и передаю ему пшшшш от камышёвых людей
31 316442908
>>42614
Сделают все централизацованым, как отопление, как налоги которые текут в центр, самолёты летают через столицу. Так же с информацией, будут дата центры где будет вся информация с уровням доступа. Личными будут пару гигов для установки обязательных приложений типа " товарищ майор всегда рядом"
32 316442918
>>42765

> (Нужный объём в ТБ) * 2 = Количество дисков по 1 ТБ


Во первых чем меньше размер диска тем дороже цена за ТБ. Во вторых 1 Тб это пиздецки смешной объем, итв третьих сколько вмещает отсек для хардов в стандартном системнике, хардов на 4-6 в лучшем случае?
33 316442922
>>42879
Приходишь в гости с хардами, тебя там насилуют в анус и расчленяют, харды сдают в цветмет. Твои действия?
34 316442951
>>42689

>>если его часто не включать его же на дольше хватит чем ХДД? Или нет?



У них заряд утекает в ячейках если долго не включать. QLC живут до года без включения. TLC 1-3 года, SLC по 10 лет. Но SLC дорогие. Теоретически HDD в выключенном состоянии дольше сохранит данные. Но HDD в наработке по часам проигрывает из за особенностей записи и наличия механики.
35 316442954
>>42857

>raid массив


Да я понимаю что можно кодами хемминга и хуеминга часть ошибок покрыть, но рейд массив не спасает в ситуации когда винт тупо сгорел нахуй полностью или проебался.

Поэтому да, будет лютый расход по дискам, но зато полная копия.

>>42918
А я не собираюсь их постоянно подключнными держать.
Залил фильмов и игр (для PS2, PS1, XBOX360), сделал "дамп" списка контента (без содержимого) и винты сами отдельно хранишь в чистом помещении.
nBkSUhL2hFUnm8y-Jb6BrNOp2Z318Ji-miDHnvyDoGuQYX7XByXLjCdwu5tI-BaO-42NvWWBK8AqGfS8kjIzIymM8G1NxHb1A=S1yQuJE2TCaCnro8S4aRPA.jpg113 Кб, 1200x1200
36 316442955
>>41807 (OP)
Пиздец, ты долбоеб ))
17390811173290.jpg2,5 Мб, 1873x1800
37 316442961
Взял 2 диска по 14 Тб.
Сейчас уже практически всё забито.
Думаю взять ещё 2 по 20 Тб.
38 316442982
>>42954
Маня, винты нельзя хранить отдельно, это не оффлайн хранилище. Ячейки намагниченность потеряют и все. Для холодного хранения магнитная лента, и ту вроде надо раз в какой то промежуток времени вставлять и перематывать
39 316443009
>>42922

> Приходишь в гости с хардами, тебя там насилуют в анус и расчленяют, харды сдают в цветмет. Твои действия?


Никуда не ходишь вообще, тебе в квартиру залезают ветеринары СВО вместе с цыганами и хохлами и начинают насиловать тебя кочергой. Твои действия?
40 316443027
>>42954

> >raid массив


> Да я понимаю что можно кодами хемминга и хуеминга часть ошибок покрыть, но рейд массив не спасает в ситуации когда винт тупо сгорел нахуй полностью или проебался.


Именно в этой ситуации он и спасает, блять.
17283657587180.jpg478 Кб, 816x1456
41 316443036
>>42954

> но рейд массив не спасает в ситуации когда винт тупо сгорел нахуй полностью или проебался


Садись, 2.
Иди перечитывай.
42 316443038
>>41958
Хз у меня лично всё норм (именно на сайте) на Dashchan как бы я не старался а капча нихуя не грузит. Хорошо что я не любитель навернуть говнеца и у меня есть пасскод.
43 316443039
Они шумят у тебя? У меня тоже 18тб тошиба мг чего-то там. Ебать трещит как поезд чух чух
44 316443054
>>43009
Я в коттеджном посёлке живу с мощной охраной.
45 316443057
>>42982
В чем проблема раз в полгодика подключить ради синхронизации и домагнитить?

Ну или просто питание на них подавать без подключений к дата проводам.
46 316443096
>>42951
Короче включать его раз в месяц, и тогда будет дольше работать чем hdd, не?
47 316443148
>>42612

>Все что выше 1ТБ имеет низкую надежность, в следствии чего, с высокой вероятностью, ломается в течении 1-2 года.


Ебать кретин.
>>42689

>А ты смотрю шаришь?


Там полено 40iq. Скорее всего фанат Стаса ай как просто или другого доблоеба, который такую хуйню несет.
1739224087151.jpg287 Кб, 1933x1637
48 316443154
На харды только бомжи бекапят
49 316443159
>>41807 (OP)

>Сейчас буду скачивать


Ну лучше поздно, чем никогда.
50 316443175
>>42961
Где и какие брал?
image.png640 Кб, 1024x770
51 316443209
В одной европейской стране уже жгли хранители информации
content://com.android.chrome.FileProvider/images/screenshot/17392241731281911702141.jpg
17372206565480.jpg94 Кб, 500x376
52 316443366
>>43175
Toshiba
Брал б/у на Авито у какого-то маня-майнера.
53 316443806
>>41807 (OP)
Если все наебнется, то не хватит всех хдд, чтобы восполнить то, что мы имеем сейчас. И в целом, скорее всего просто откатиться к локалкам, где будет инфы больше, чем ты сохрнашь, но при это раз уж решил, то ничего плохого, будешь делиться с нами своими данными!
54 316443819
>>42186

> Сейчас игры


Сейчас нет игр. Всё.
55 316443865
>>43819
Есть, каждый день выходят, просто не те, что ты любишь. В целом, уже игр вышло уже столько, что даже если начать играть сейчас, от все не пройдешь
56 316444186
Та нахуя. Я тогда уж лушче просто сьебу куда-нибудь на заброшенные дачи, и буду там выживать. Это когда интернет вообще запретят.

А пока просто чебурнет будет, вполне себе жить можно и адаптироватся, кинчики и сериалы с субтитрами посмотрим, а игр годных щас 1-2 в год да и все, да и те дай бог просто терпимые и подходят лишь чтобы просто убить время
sage 57 316444214
>>41807 (OP)
Лучше бы мозг купил. Для хранения надо брать голд, а не ультрастар.
58 316444326
>>42747
Интересно сколько там зеттабайтов игорей и прона. Асло есть еще дублируемая инфа на разных языках. Короч без порнухи, игорей и кинца хорошо если 10тб инфы будет.
59 316444731
>>42186
Лично мне хватит и старых винчиков которые максимум 50 гб весит установочник
image281 Кб, 1683x516
60 316444756
>>41807 (OP)
Я лично скачал весь асмр который мне нравится. Я спокоен как удав блять
61 316444801
>>42612
нет, 4тб вд живучие, особенно пурпл и блэк
блю с осторожностью, много каловых моделей
я себе беру 2 тб блэк с каждой зп и бэкаплю бэкапы
>>43148
я потратил на восстановление гелиевого 8 тб 45к в спб, расскажи мне блядь. хорошо что битый блин у меня был забэкаплен в телегу да я проебался в тот раз знаю
>>42982
лента до 100 тб не имеет смысла, и она не панацея, только как мастер-копия
62 316444851
>>44756
нет асмр от алис делишь
ну ты и лох
63 316444861
>>42386
Олигофрен блять, вероятность что хотя бы 1 диск сдохнет выше с большим числом дисков. Держи бэкап и все нахуй.
64 316444885
>>42534
на windows server - файловая система, дедупликация позволяет сэкономить 50% на случайных данных но об этом нигде не говорят. там хеши блочные маркируется и система хранит ток уникальные отрезки блоков HTFS

к примеру на Win 11 у тебя видосов и игр будет на 2 тб. а на сервере 1.5 тб. и не ясн почему они эту фишку не переносят на win 11

по поводу алгоритма "всего" то лучше не орать.
65 316444887
>>41807 (OP)
ты хохлявая свинятина?
66 316444890
>>44801
Ебать, развели на 45к
67 316444897
>>41807 (OP)
Хохля, все знают, что вы снова город потеряли. Давай в бусик живо
68 316444902
>>42386
Ебать твою маму
69 316444914
Хохлов опять ебут. Терпят, терпильцы
70 316444928
Самый доступный вариант для народа.
71 316445020
>>44928

>для народа


Для долбоёба.
У меня один только Бибоп 230 гб весит.
72 316445153
>>44928
Эта огромная колбаса из дисков всего 235 гигов. Это же просто смешно пиздец.
73 316445183
>>41807 (OP)
Выглядит солидно
sage 74 316445217
>>45020
Даже приблизительно не могу имаджинировать твоё кретиничное свиное еблище.
75 316445231
>>41807 (OP)
Какой диск самый надежный для хранения в пределах 1-2 тб?
76 316445232
>>45183

> Выглядит солидно


С гелием небось. Я слышал все харды выше 6-8 терабайт с гелием. Гелий черещ трещины утечет и они по пизде пойдут.
77 316445322
>>42765
Нет. Если ты покупаешь диск на 18тб то тебе минимум нужно купить еще один такой же. Это самый простой рейд помоему
78 316445336
>>45153
>>45020

за фетиш платят либо деньгами либо удобством

хотя, всё это цифровой синдром плюшкина
79 316445356
>>45231

Раньше были неубиваемые Samsung Ecogreen Spinpoint F2/F3, некоторые экземпляры от WD Green, Blue, Black, Red, Purple.

Сейчас WD Red Plus/Pro, Purple, Black, Gold, Ultrastar, но хуй знает настолько качественно собраны, вполне возможно что по принципу запланированного устаревания с киллсвичем после определенного количества часов работы.
80 316445379
>>41807 (OP)
Охлад только прикрути к ним уж очень они горячие, а чем им прохладнее чем дольше будут служить
81 316445392
>>41807 (OP)
У тебя туда даже 0,00000001% вк порнухи не влезет, какой нахуй интернет ты собрался выкачивать?
sage 82 316445409
>>41807 (OP)
Картинку из интернета ты взял а не 3 винчестера клоун ебаный.
83 316445478
>>41807 (OP)
Нихуя ты умственно осталый пиздец.

Нормальные люди во первых ещё с появления пеки хоронят все и всегда. С развитием сетей ещё в 2000ых. Эти самые нормальные люди уже раздавали разный контент во всяких strongDC и т.п

Ещё все нормальные люди время от времени проводят аудит схороненного добра. И самое важное эти самые нормальные люди не схороняют инфы на больших хардах. Потому что ебалн тупоголовый они могут наебнуться и ты потеряешь сразу и дохуя контента или инфы.

Хоронить надо на 1-2тб хардах.

Какой же ты далбаеб пиздец просто
84 316445491
Они не смогли

Не смогли остановить старение

Не смогли преодолеть смерть

Не смогли увидеть что там за гранью.

Они свихнулась. Столько власти а ничего не могут.
85 316445596
>>45478

> Хоронить надо на 1-2тб хардах.


> Какой же ты далбаеб пиздец просто


Это ты долбоеб. И сколько у тебя таких хардов в пеку влезет, 4? Охуенно похранил, блять.
86 316445620
>>45336
>>45491
Не завидуй хохлина.
Для меня это копейки, зато все файлы всегда под рукой.
87 316445648
>>43865
Ну хуй знает, если ты не любитель индиговна, то последние лет 10 игропрома будто можно пройти за месяц - максимум. Помню в 2015 пригорало что за целый год вышло всего пару интересных мне игор и, может быть, десяток хороших игр всего, а сейчас игропрому уже на "игру года" номинировать нечего.
88 316446141
>>45478
>>42612

Тупости пидорашек нет предела. Просто имаджентруйте вырожденческие ебла этих дегенератов, которые наслушались какой-то хуйни по рен тв или на тупичке гоблина и повторяют ее с диким апломбом.
89 316446249
>>44928
у меня папка с вебмами с двача почти впритык на двд-р помещается
90 316446476
Бамп
91 316446902
>>42961
Чем ты их забил то? Играми и порнухой?
92 316446944
>>41807 (OP)

> Взял 3 таких красавчика


Почём?
93 316446966
>>41807 (OP)
Шизло
94 316447066
>>42793
чел есть Фидо же
95 316447253
>>41807 (OP)
Я предпочитаю ноутбучные терабайтники, они считай бесплатные
96 316447277
>>44885

>не ясн почему они эту фишку не переносят на win 11


Внезапно не подходит для десктопа
.png6 Кб, 254x182
97 316447293
>>45020
Луль
У меня будет качество видео лучше, если на своем 720p-рипе на 10 гигов включу длсс для видео.
98 316447300
>>41807 (OP)
Зачем они тебе в грядущей 3 мировой?
99 316447306
>>41807 (OP)
Твои предпочтения в калтенте меняются по ходу жизни. Через пяток лет ты уже будешь сам себя спрашивать "и нахуй я это скачал?"
100 316447307
>>42186
Так они все кал, который даже смысла нет сохранять.
101 316447313
>>47306
Именно поэтому надо качать ВСЕ
102 316447342
>>41807 (OP)
Молодец брат-анон. Если что будешь делиться контентом на дваче. Не все тут могут скачать много всего. Но есть умелые и бережливые аноны, которые запасаются контентом, а потом если что поделятся.
Чтоб у нас была на дваче возможность жить без внешнего интернета если он отключится.
103 316447359
>>47277
внезапно весь бизнес в it Это одна семья и родственики дедупликацию блоков на винде 11 можно включить через кастыли, вместо 15 кб блока, 5 кб ссылка. в линуксе в бёрдсте это есть.

вон алгоритм мгновенных снимков есть, а вот для бинарного кода нет )
104 316447367
>>42565
Торренты могут отрубить как и внешний интернет. Придется делать свою двачесеть с братьями-анонами.
105 316447374
>>42651
Батя это ты?
106 316447382
>>42793

>Ходить по городу, переключая каналы в поисках нужного торента. Для совсем секретных отправляться за город, в леса и горы, где в тайном убежище сиди затворник и передаёт инфу на секретные торренты.


Круто.
107 316447391
>>42879

>с хардами в гости припереться.


Ух, звучит интересно, я бы попробовал сходить к другу со своим хардом.
17392440164059197958817723114596.jpg198 Кб, 1000x1000
108 316447422
>>42908
А товарищ майор может мне по запросу сделать массаж простаты полицейской дубинкой?
Просто так без совершения преступлений. Если я себя буду хорошо вести и буду добропорядочным гражданином то можно?
109 316447459
>>42922
Зачем расчленять если можно забрать в рабство и насиловать постоянно?
110 316447475
>>43009

>Твои действия?


Подчиняюсь и получаю удовольствие.
1739247968437.jpg61 Кб, 600x323
111 316447479
>>44887

>ты хохлявая свинятина?


>>44897

>Хохля, все знают, что вы снова город потеряли. Давай в бусик живо


>>44914

>Хохлов опять ебут. Терпят, терпильцы

112 316447523
>>44887
А ты что ищешь кошерные продукты?
113 316447538
>>45231
Карликовый.
17392448284393346840175673245402.jpg54 Кб, 686x386
114 316447579
>>45409

>Картинку из интернета ты взял а не 3 винчестера


Двачую. Вот вам винчестер с Дикого Запада.
115 316447619
>>45020
При мертвом интернете лично мне не нужны высококачественные рипы аниме, хватит и 480p качества, а его вес куда меньше. Нахуя тебе 4к видео аниме???А?????
116 316447626
>>47300
Третья мировая Россию не затронет.
117 316447629
>>47306

>Через пяток лет ты уже будешь сам себя спрашивать "и нахуй я это скачал?"


Чтобы делиться с другими.
118 316447657
>>42689
С умирающего хдд можно перенести данные. Ссд умирает мгновенно.
.png409 Кб, 604x604
119 316447668
>>47579
Тутуту муа муа муа
120 316447672
>>47619
Интернет не может быть мертвым так как он никогда и не жил. Это цифровой разум, анон.
121 316447683
>>42612
Использую ceph в режиме минимум 2 копии блоков данных, стандартно 3 копии. Всем советую, попробуйте, еще захотите.
122 316447687
import os
import json
import tkinter as tk
from tkinter import filedialog, messagebox

DATA_FILE = "data.json"
COMPRESSED_EXT = ".ctxt"

ALPHABET = (
'ABCDEFGHIJKLMNOPQRSTUVWXYZ'
'abcdefghijklmnopqrstuvwxyz'
'0123456789'
'一丁七万丈三上下不与丑专且世丘丙业丛东丝丞丢两严並丧丨'
'अआइईउऊऋएऐओऔकखगघङचछजझञटठडढणतथदधनपफबभमयरलवशीष़ज़ािीुूृॅेैॉौं्аәбвгджзклмнөпрстуүфхцчшщъыьэюя' # Cyrillic and Devanagari
)
ALPHABET = ''.join(sorted(set(ALPHABET)))

def int_to_hash(n, length=4):
base = len(ALPHABET)
digits = []
for _ in range(length):
n, rem = divmod(n, base)
digits.append(rem)
return ''.join(ALPHABET[d] for d in reversed(digits))

def hash_to_int(hash_str):
base = len(ALPHABET)
code = 0
for char in hash_str:
code = code * base + ALPHABET.index(char)
return code

def split_into_2bit_blocks(data):
blocks = []
for byte in data:
blocks.extend([
(byte >> 6) & 0x03,
(byte >> 4) & 0x03,
(byte >> 2) & 0x03,
byte & 0x03
])
return blocks

def combine_from_2bit_blocks(blocks):
data = []
for i in range(0, len(blocks), 4):
chunk = blocks[i:i+4]
while len(chunk) < 4:
chunk.append(0)
byte = (chunk[0] << 6) | (chunk[1] << 4) | (chunk[2] << 2) | chunk[3]
data.append(byte)
return data

def compress(data, dictionaries):
current_data = split_into_2bit_blocks(data)
original_length = len(current_data)

for level in range(4):
if len(current_data) % 2 != 0:
current_data.append(0) # Padding
code_to_pair = dictionaries[level]
pair_to_code = {pair: idx for idx, pair in enumerate(code_to_pair)}
new_data = []
for i in range(0, len(current_data), 2):
pair = (current_data, current_data[i+1])
if pair in pair_to_code:
new_data.append(pair_to_code[pair])
else:
code = len(code_to_pair)
code_to_pair.append(pair)
pair_to_code[pair] = code
new_data.append(code)
current_data = new_data
if len(current_data) <= 1:
break

compressed_str = ''.join(int_to_hash(code) for code in current_data)
return f"{original_length}:{compressed_str}"

def decompress(compressed_str, dictionaries):
if ':' not in compressed_str:
messagebox.showerror("Error", "Invalid compressed format")
return []
original_length_str, hash_str = compressed_str.split(':', 1)
original_length = int(original_length_str)

hash_length = 4
chunked = [hash_str[i:i+hash_length] for i in range(0, len(hash_str), hash_length)]
try:
current_data = [hash_to_int(h) for h in chunked]
except ValueError:
return []

for level in reversed(range(4)):
if not current_data:
break
if level >= len(dictionaries):
continue
code_to_pair = dictionaries[level]
new_data = []
for code in current_data:
if code < len(code_to_pair):
new_data.extend(code_to_pair[code])
else:
return []
current_data = new_data

current_data = current_data[:original_length] # Trim padding
return combine_from_2bit_blocks(current_data)

def save_data_file(data):
try:
data["dictionary"] = [[list(p) for p in level] for level in data["dictionary"]]
with open(DATA_FILE, 'w') as f:
json.dump(data, f, indent=4)
except Exception as e:
messagebox.showerror("Error", f"Error saving data: {str(e)}")

def load_data_file():
try:
if os.path.exists(DATA_FILE):
with open(DATA_FILE, 'r') as f:
data = json.load(f)
data["dictionary"] = [[tuple(p) for p in level] for level in data["dictionary"]]
return data
except Exception as e:
messagebox.showerror("Error", f"Error loading data: {str(e)}")
return {"dictionary": [[] for _ in range(4)], "files": []}

class FileManager:
def __init__(self, root):
self.root = root
self.root.title("4-Level Compressor")
self.data = load_data_file()
self.dictionaries = self.data["dictionary"]

self.listbox = tk.Listbox(root)
self.listbox.pack(fill=tk.BOTH, expand=True)

btn_frame = tk.Frame(root)
btn_frame.pack(fill=tk.X)

self.compress_btn = tk.Button(btn_frame, text="Compress", command=self.compress_file)
self.compress_btn.pack(side=tk.LEFT, padx=5)

self.decompress_btn = tk.Button(btn_frame, text="Decompress", command=self.decompress_file)
self.decompress_btn.pack(side=tk.RIGHT, padx=5)

self.update_list()

def update_list(self):
self.listbox.delete(0, tk.END)
for f in self.data["files"]:
self.listbox.insert(tk.END, f)

def compress_file(self):
path = filedialog.askopenfilename()
if not path:
return

try:
with open(path, 'rb') as f:
data = f.read()
except Exception as e:
messagebox.showerror("Error", f"Read error: {str(e)}")
return

compressed = compress(list(data), self.dictionaries)
output_name = os.path.basename(path) + COMPRESSED_EXT

try:
with open(output_name, 'w', encoding='utf-8') as f:
f.write(compressed)
except Exception as e:
messagebox.showerror("Error", f"Write error: {str(e)}")
return

if output_name not in self.data["files"]:
self.data["files"].append(output_name)
save_data_file(self.data)
self.update_list()

def decompress_file(self):
selected = self.listbox.get(tk.ACTIVE)
if not selected:
return

save_path = filedialog.asksaveasfilename(
defaultextension=".bin",
initialfile=selected.replace(COMPRESSED_EXT, "")
)
if not save_path:
return

try:
with open(selected, 'r', encoding='utf-8') as f:
compressed_str = f.read()
except Exception as e:
messagebox.showerror("Error", f"Read error: {str(e)}")
return

decompressed = decompress(compressed_str, self.dictionaries)
if not decompressed:
messagebox.showerror("Error", "Decompression failed")
return

try:
with open(save_path, 'wb') as f:
f.write(bytes(decompressed))
messagebox.showinfo("Success", "File decompressed successfully!")
except Exception as e:
messagebox.showerror("Error", f"Write error: {str(e)}")

if __name__ == "__main__":
root = tk.Tk()
app = FileManager(root)
root.mainloop()
122 316447687
import os
import json
import tkinter as tk
from tkinter import filedialog, messagebox

DATA_FILE = "data.json"
COMPRESSED_EXT = ".ctxt"

ALPHABET = (
'ABCDEFGHIJKLMNOPQRSTUVWXYZ'
'abcdefghijklmnopqrstuvwxyz'
'0123456789'
'一丁七万丈三上下不与丑专且世丘丙业丛东丝丞丢两严並丧丨'
'अआइईउऊऋएऐओऔकखगघङचछजझञटठडढणतथदधनपफबभमयरलवशीष़ज़ािीुूृॅेैॉौं्аәбвгджзклмнөпрстуүфхцчшщъыьэюя' # Cyrillic and Devanagari
)
ALPHABET = ''.join(sorted(set(ALPHABET)))

def int_to_hash(n, length=4):
base = len(ALPHABET)
digits = []
for _ in range(length):
n, rem = divmod(n, base)
digits.append(rem)
return ''.join(ALPHABET[d] for d in reversed(digits))

def hash_to_int(hash_str):
base = len(ALPHABET)
code = 0
for char in hash_str:
code = code * base + ALPHABET.index(char)
return code

def split_into_2bit_blocks(data):
blocks = []
for byte in data:
blocks.extend([
(byte >> 6) & 0x03,
(byte >> 4) & 0x03,
(byte >> 2) & 0x03,
byte & 0x03
])
return blocks

def combine_from_2bit_blocks(blocks):
data = []
for i in range(0, len(blocks), 4):
chunk = blocks[i:i+4]
while len(chunk) < 4:
chunk.append(0)
byte = (chunk[0] << 6) | (chunk[1] << 4) | (chunk[2] << 2) | chunk[3]
data.append(byte)
return data

def compress(data, dictionaries):
current_data = split_into_2bit_blocks(data)
original_length = len(current_data)

for level in range(4):
if len(current_data) % 2 != 0:
current_data.append(0) # Padding
code_to_pair = dictionaries[level]
pair_to_code = {pair: idx for idx, pair in enumerate(code_to_pair)}
new_data = []
for i in range(0, len(current_data), 2):
pair = (current_data, current_data[i+1])
if pair in pair_to_code:
new_data.append(pair_to_code[pair])
else:
code = len(code_to_pair)
code_to_pair.append(pair)
pair_to_code[pair] = code
new_data.append(code)
current_data = new_data
if len(current_data) <= 1:
break

compressed_str = ''.join(int_to_hash(code) for code in current_data)
return f"{original_length}:{compressed_str}"

def decompress(compressed_str, dictionaries):
if ':' not in compressed_str:
messagebox.showerror("Error", "Invalid compressed format")
return []
original_length_str, hash_str = compressed_str.split(':', 1)
original_length = int(original_length_str)

hash_length = 4
chunked = [hash_str[i:i+hash_length] for i in range(0, len(hash_str), hash_length)]
try:
current_data = [hash_to_int(h) for h in chunked]
except ValueError:
return []

for level in reversed(range(4)):
if not current_data:
break
if level >= len(dictionaries):
continue
code_to_pair = dictionaries[level]
new_data = []
for code in current_data:
if code < len(code_to_pair):
new_data.extend(code_to_pair[code])
else:
return []
current_data = new_data

current_data = current_data[:original_length] # Trim padding
return combine_from_2bit_blocks(current_data)

def save_data_file(data):
try:
data["dictionary"] = [[list(p) for p in level] for level in data["dictionary"]]
with open(DATA_FILE, 'w') as f:
json.dump(data, f, indent=4)
except Exception as e:
messagebox.showerror("Error", f"Error saving data: {str(e)}")

def load_data_file():
try:
if os.path.exists(DATA_FILE):
with open(DATA_FILE, 'r') as f:
data = json.load(f)
data["dictionary"] = [[tuple(p) for p in level] for level in data["dictionary"]]
return data
except Exception as e:
messagebox.showerror("Error", f"Error loading data: {str(e)}")
return {"dictionary": [[] for _ in range(4)], "files": []}

class FileManager:
def __init__(self, root):
self.root = root
self.root.title("4-Level Compressor")
self.data = load_data_file()
self.dictionaries = self.data["dictionary"]

self.listbox = tk.Listbox(root)
self.listbox.pack(fill=tk.BOTH, expand=True)

btn_frame = tk.Frame(root)
btn_frame.pack(fill=tk.X)

self.compress_btn = tk.Button(btn_frame, text="Compress", command=self.compress_file)
self.compress_btn.pack(side=tk.LEFT, padx=5)

self.decompress_btn = tk.Button(btn_frame, text="Decompress", command=self.decompress_file)
self.decompress_btn.pack(side=tk.RIGHT, padx=5)

self.update_list()

def update_list(self):
self.listbox.delete(0, tk.END)
for f in self.data["files"]:
self.listbox.insert(tk.END, f)

def compress_file(self):
path = filedialog.askopenfilename()
if not path:
return

try:
with open(path, 'rb') as f:
data = f.read()
except Exception as e:
messagebox.showerror("Error", f"Read error: {str(e)}")
return

compressed = compress(list(data), self.dictionaries)
output_name = os.path.basename(path) + COMPRESSED_EXT

try:
with open(output_name, 'w', encoding='utf-8') as f:
f.write(compressed)
except Exception as e:
messagebox.showerror("Error", f"Write error: {str(e)}")
return

if output_name not in self.data["files"]:
self.data["files"].append(output_name)
save_data_file(self.data)
self.update_list()

def decompress_file(self):
selected = self.listbox.get(tk.ACTIVE)
if not selected:
return

save_path = filedialog.asksaveasfilename(
defaultextension=".bin",
initialfile=selected.replace(COMPRESSED_EXT, "")
)
if not save_path:
return

try:
with open(selected, 'r', encoding='utf-8') as f:
compressed_str = f.read()
except Exception as e:
messagebox.showerror("Error", f"Read error: {str(e)}")
return

decompressed = decompress(compressed_str, self.dictionaries)
if not decompressed:
messagebox.showerror("Error", "Decompression failed")
return

try:
with open(save_path, 'wb') as f:
f.write(bytes(decompressed))
messagebox.showinfo("Success", "File decompressed successfully!")
except Exception as e:
messagebox.showerror("Error", f"Write error: {str(e)}")

if __name__ == "__main__":
root = tk.Tk()
app = FileManager(root)
root.mainloop()
123 316447701
>>47687
В этой статье рассматривается новый подход к сжатию данных с использованием рекурсивного алгоритма многослойного сжатия, который может достичь почти бесконечного сжатия. Предложенный метод сочетает рекурсию и преобразование файлов в компактный формат с использованием специальной системы хеширования для кодирования и декодирования данных. В статье представлены основы алгоритма, его реализация и потенциальные применения в различных областях хранения данных, передачи и криптографии.

Введение:

Сжатие данных является важной областью исследований, направленной на разработку эффективных методов уменьшения размера файлов при сохранении целостности исходных данных. Традиционные алгоритмы сжатия, такие как кодирование Хаффмана, LZW (Лемпеля — Зива — Уэлча) и преобразование Бэрроуза-Уиллера (BWT), фокусируются на достижении без потерь сжатия. Однако эти методы часто достигают предела сжатия при работе с очень сложными или повторяющимися наборами данных. В этой статье представлен рекурсивный алгоритм сжатия данных, который стремится преодолеть границы уменьшения размера данных с помощью инновационного подхода, включающего несколько уровней сжатия.

Методология:

Предложенный алгоритм сжатия данных использует рекурсию и многослойный словарь. Данные сначала делятся на 2-битные блоки, которые затем обрабатываются с использованием словарей, хранящих пары данных. На протяжении четырёх уровней алгоритм рекурсивно сжимает данные, сопоставляя пары битов с более короткими кодами. Процесс сжатия является обратимым, что обеспечивает восстановление исходных данных при декомпрессии.

Разбиение данных и хеширование: Исходные данные сначала делятся на 2-битные блоки. Каждый блок представляет собой более мелкую часть исходных данных, которая затем кодируется с использованием собственного алфавита с помощью метода преобразования по основанию. Алгоритм использует хеш-таблицу для уникального представления последовательностей этих 2-битных блоков.

Рекурсивное сжатие с использованием словаря: Сжатие выполняется рекурсивно, при этом каждый уровень строит свой словарь, который отображает пары ранее встреченных блоков в более короткие коды. Рекурсия завершается, когда размер данных достигает заданного порога или когда дальнейшее сжатие становится невозможным.

Процесс сжатия и декомпрессии: При сжатии последовательности битов преобразуются в соответствующие коды с использованием хеш-функции. Декомпрессия обратным способом восстанавливает исходные данные с использованием словаря и поиска по хешам.

Обработка файлов и графический интерфейс: Реализация сопровождается графическим пользовательским интерфейсом (GUI) с использованием Tkinter, что позволяет пользователю легко сжимать и распаковывать файлы. GUI интерфейс обеспечивает удобство в работе с выбором файлов, сжатием и декомпрессией.

Результаты:

Алгоритм сжатия был протестирован на различных типах файлов, от текстовых до бинарных. Результаты показали значительное уменьшение размера файлов, при этом некоторые наборы данных демонстрировали многократное сжатие без потерь. Рекурсивный подход оказался особенно эффективным для обработки повторяющихся данных, обеспечивая непрерывное сжатие без ущерба для исходного файла.

Проблемы и направления для дальнейших исследований:

Несмотря на успешную реализацию, алгоритм сталкивается с несколькими проблемами, особенно при обработке нерепродуктивных или сложных данных. Кроме того, вычислительная стоимость рекурсии растёт с увеличением размера файла. Дальнейшие оптимизации, такие как параллельная обработка или использование гибридных техник сжатия, могут улучшить масштабируемость и эффективность алгоритма.

Концепция «бесконечного сжатия», при которой процесс сжатия данных продолжается рекурсивно без значительного ухудшения производительности, представляет собой захватывающую перспективу. Будущие исследования будут направлены на улучшение процесса построения словаря, уменьшение размера необходимого словаря и исследование применения алгоритма в реальном времени при передаче данных.
123 316447701
>>47687
В этой статье рассматривается новый подход к сжатию данных с использованием рекурсивного алгоритма многослойного сжатия, который может достичь почти бесконечного сжатия. Предложенный метод сочетает рекурсию и преобразование файлов в компактный формат с использованием специальной системы хеширования для кодирования и декодирования данных. В статье представлены основы алгоритма, его реализация и потенциальные применения в различных областях хранения данных, передачи и криптографии.

Введение:

Сжатие данных является важной областью исследований, направленной на разработку эффективных методов уменьшения размера файлов при сохранении целостности исходных данных. Традиционные алгоритмы сжатия, такие как кодирование Хаффмана, LZW (Лемпеля — Зива — Уэлча) и преобразование Бэрроуза-Уиллера (BWT), фокусируются на достижении без потерь сжатия. Однако эти методы часто достигают предела сжатия при работе с очень сложными или повторяющимися наборами данных. В этой статье представлен рекурсивный алгоритм сжатия данных, который стремится преодолеть границы уменьшения размера данных с помощью инновационного подхода, включающего несколько уровней сжатия.

Методология:

Предложенный алгоритм сжатия данных использует рекурсию и многослойный словарь. Данные сначала делятся на 2-битные блоки, которые затем обрабатываются с использованием словарей, хранящих пары данных. На протяжении четырёх уровней алгоритм рекурсивно сжимает данные, сопоставляя пары битов с более короткими кодами. Процесс сжатия является обратимым, что обеспечивает восстановление исходных данных при декомпрессии.

Разбиение данных и хеширование: Исходные данные сначала делятся на 2-битные блоки. Каждый блок представляет собой более мелкую часть исходных данных, которая затем кодируется с использованием собственного алфавита с помощью метода преобразования по основанию. Алгоритм использует хеш-таблицу для уникального представления последовательностей этих 2-битных блоков.

Рекурсивное сжатие с использованием словаря: Сжатие выполняется рекурсивно, при этом каждый уровень строит свой словарь, который отображает пары ранее встреченных блоков в более короткие коды. Рекурсия завершается, когда размер данных достигает заданного порога или когда дальнейшее сжатие становится невозможным.

Процесс сжатия и декомпрессии: При сжатии последовательности битов преобразуются в соответствующие коды с использованием хеш-функции. Декомпрессия обратным способом восстанавливает исходные данные с использованием словаря и поиска по хешам.

Обработка файлов и графический интерфейс: Реализация сопровождается графическим пользовательским интерфейсом (GUI) с использованием Tkinter, что позволяет пользователю легко сжимать и распаковывать файлы. GUI интерфейс обеспечивает удобство в работе с выбором файлов, сжатием и декомпрессией.

Результаты:

Алгоритм сжатия был протестирован на различных типах файлов, от текстовых до бинарных. Результаты показали значительное уменьшение размера файлов, при этом некоторые наборы данных демонстрировали многократное сжатие без потерь. Рекурсивный подход оказался особенно эффективным для обработки повторяющихся данных, обеспечивая непрерывное сжатие без ущерба для исходного файла.

Проблемы и направления для дальнейших исследований:

Несмотря на успешную реализацию, алгоритм сталкивается с несколькими проблемами, особенно при обработке нерепродуктивных или сложных данных. Кроме того, вычислительная стоимость рекурсии растёт с увеличением размера файла. Дальнейшие оптимизации, такие как параллельная обработка или использование гибридных техник сжатия, могут улучшить масштабируемость и эффективность алгоритма.

Концепция «бесконечного сжатия», при которой процесс сжатия данных продолжается рекурсивно без значительного ухудшения производительности, представляет собой захватывающую перспективу. Будущие исследования будут направлены на улучшение процесса построения словаря, уменьшение размера необходимого словаря и исследование применения алгоритма в реальном времени при передаче данных.
124 316447713
вот этот шарит>>44928
125 316447722
>>47701
Для описания процесса рекурсивного сжатия данных, рассмотрим формулу, которая отражает несколько ключевых этапов сжатия, включая разбиение на блоки, использование словаря и рекурсивное сжатие.

### Формула для рекурсивного сжатия:

\[
C_{\text{final}} = f_{\text{compress}}\left( \dots f_{\text{compress}}\left( f_{\text{compress}}\left( D \right) \right) \dots \right)
\]

где:

- \( D \) — исходные данные, представленные в виде последовательности байтов.
- \( f_{\text{compress}} \) — функция сжатия данных с использованием словаря, которая выполняет рекурсию на нескольких уровнях.
- \( C_{\text{final}} \) — окончательно сжатые данные.

### Описание шагов в формуле:

1. Разбиение на 2-битные блоки (split into 2-bit blocks):
Исходные данные сначала разбиваются на более мелкие блоки — 2-битные блоки. Это помогает эффективно представлять данные в виде более компактных единиц, что облегчает их дальнейшую обработку.

\[
B_i = \text{split}(D) \quad \text{где } B_i \text{ — 2-битный блок, полученный из данных } D.
\]

2. Построение словаря на каждом уровне сжатия (dictionary creation):
Каждый уровень сжатия строит свой собственный словарь, в котором хранятся уникальные пары блоков из предыдущего уровня. Эти пары кодируются в виде числовых значений, которые становятся всё короче по мере углубления в рекурсию.

\[
S_{\text{level}} = \{(p_{\text{pair}}, \text{index})\}, \quad \text{где } p_{\text{pair}} \text{ — пара блоков, а } \text{index} \text{ — индекс пары в словаре}.
\]

3. Рекурсивное сжатие на каждом уровне (recursive compression):
Функция сжатия на каждом уровне использует словарь для замены найденных пар блоков на их индексы. Этот процесс продолжается рекурсивно до тех пор, пока данные не смогут быть дополнительно сжаты или не достигнут минимального размера.

\[
f_{\text{compress}}(D_{\text{level}}) = \{ \text{code}_{\text{pair}} \} \quad \text{для каждой пары } p_{\text{pair}} \text{ на уровне}.
\]

4. Объединение сжатых блоков в итоговый результат (final compressed data):
После завершения рекурсии все коды пар блоков из всех уровней сжимаются в итоговый компактный формат, который можно сохранить в файл.

\[
C_{\text{final}} = \text{combine}(\{ \text{code}_i \})
\]

### Пример конкретной реализации:

Предположим, что у нас есть строка данных \( D = \text{"hellohellohello"} \), и мы её хотим сжать с использованием описанного алгоритма. На первом уровне мы разбиваем строку на 2-битные блоки и строим словарь для каждого уникального символа или пары символов. На следующем уровне, если встречаются одинаковые пары блоков, мы заменяем их на более короткие коды, используя уже созданный словарь. Процесс повторяется на нескольких уровнях.

В результате сжатия получаем строку, которая будет короче исходной, и при её распаковке мы сможем восстановить исходные данные, применяя обратный процесс декомпрессии.

### Итоговое описание формулы:

Рекурсивная формула для сжатия данных через многослойный словарь описывает последовательность шагов, где на каждом уровне:

- Происходит разбиение на более мелкие блоки.
- Строится новый словарь для замены повторяющихся блоков.
- Применяется рекурсия до тех пор, пока сжатие не станет невозможным.

Это позволяет значительно уменьшить размер исходных данных, эффективно используя повторяющиеся шаблоны и структуры в данных, и дает возможность дальнейшего сжатия.
125 316447722
>>47701
Для описания процесса рекурсивного сжатия данных, рассмотрим формулу, которая отражает несколько ключевых этапов сжатия, включая разбиение на блоки, использование словаря и рекурсивное сжатие.

### Формула для рекурсивного сжатия:

\[
C_{\text{final}} = f_{\text{compress}}\left( \dots f_{\text{compress}}\left( f_{\text{compress}}\left( D \right) \right) \dots \right)
\]

где:

- \( D \) — исходные данные, представленные в виде последовательности байтов.
- \( f_{\text{compress}} \) — функция сжатия данных с использованием словаря, которая выполняет рекурсию на нескольких уровнях.
- \( C_{\text{final}} \) — окончательно сжатые данные.

### Описание шагов в формуле:

1. Разбиение на 2-битные блоки (split into 2-bit blocks):
Исходные данные сначала разбиваются на более мелкие блоки — 2-битные блоки. Это помогает эффективно представлять данные в виде более компактных единиц, что облегчает их дальнейшую обработку.

\[
B_i = \text{split}(D) \quad \text{где } B_i \text{ — 2-битный блок, полученный из данных } D.
\]

2. Построение словаря на каждом уровне сжатия (dictionary creation):
Каждый уровень сжатия строит свой собственный словарь, в котором хранятся уникальные пары блоков из предыдущего уровня. Эти пары кодируются в виде числовых значений, которые становятся всё короче по мере углубления в рекурсию.

\[
S_{\text{level}} = \{(p_{\text{pair}}, \text{index})\}, \quad \text{где } p_{\text{pair}} \text{ — пара блоков, а } \text{index} \text{ — индекс пары в словаре}.
\]

3. Рекурсивное сжатие на каждом уровне (recursive compression):
Функция сжатия на каждом уровне использует словарь для замены найденных пар блоков на их индексы. Этот процесс продолжается рекурсивно до тех пор, пока данные не смогут быть дополнительно сжаты или не достигнут минимального размера.

\[
f_{\text{compress}}(D_{\text{level}}) = \{ \text{code}_{\text{pair}} \} \quad \text{для каждой пары } p_{\text{pair}} \text{ на уровне}.
\]

4. Объединение сжатых блоков в итоговый результат (final compressed data):
После завершения рекурсии все коды пар блоков из всех уровней сжимаются в итоговый компактный формат, который можно сохранить в файл.

\[
C_{\text{final}} = \text{combine}(\{ \text{code}_i \})
\]

### Пример конкретной реализации:

Предположим, что у нас есть строка данных \( D = \text{"hellohellohello"} \), и мы её хотим сжать с использованием описанного алгоритма. На первом уровне мы разбиваем строку на 2-битные блоки и строим словарь для каждого уникального символа или пары символов. На следующем уровне, если встречаются одинаковые пары блоков, мы заменяем их на более короткие коды, используя уже созданный словарь. Процесс повторяется на нескольких уровнях.

В результате сжатия получаем строку, которая будет короче исходной, и при её распаковке мы сможем восстановить исходные данные, применяя обратный процесс декомпрессии.

### Итоговое описание формулы:

Рекурсивная формула для сжатия данных через многослойный словарь описывает последовательность шагов, где на каждом уровне:

- Происходит разбиение на более мелкие блоки.
- Строится новый словарь для замены повторяющихся блоков.
- Применяется рекурсия до тех пор, пока сжатие не станет невозможным.

Это позволяет значительно уменьшить размер исходных данных, эффективно используя повторяющиеся шаблоны и структуры в данных, и дает возможность дальнейшего сжатия.
126 316447728
Я взял 2 таких диска. И не знаю, что с ними делать. Смог заполнить только 3 ТБ
127 316447798
>>47687
НО
вся информатика и всё IT Это 32 гб словарей меток + 8 кб скрипт.
И все вселенные и всё, что либо можно описать, это 32 гб словарей.

дальше уже идёт рекурсионный проброс, где опять инфу и вычисления можно разложить на 32 гб и пробрасывать бесконечно
128 316447829
>>44885
мой любимый чел на двачах.
у тебя есть телеграмм канал?
129 316447831
>>47728
Вот таблица с оценками для всех игр в Steam, всей музыки и всех фильмов за все время. Это будет более приблизительная оценка, основанная на общем объеме данных, доступных в этих категориях:
КатегорияОценка размера
Все игры в Steam50,000–100,000 ТБ (учитывая весь архив игр, включая обновления, DLC и т.д.)
Вся музыка за все время1,000,000+ ТБ (если учитывать все альбомы, песни и музыкальные коллекции по всему миру)
Все фильмы за все время100,000–500,000 ТБ (с учетом всех фильмов, включая короткометражки, документальные фильмы и т.д.)
130 316447860
>>44885
База в треде, я спокоен.
131 316447879
>>44928
Лучше тогда блюрей.
sage 132 316447914
>>43054

>Я в коттеджном посёлке живу с мощной охраной.


Никуда не ходишь вообще, тебе в коттедж залезают ветеринары СВО вместе с цыганами, хохлами и мощной охраной, которая в доле, и начинают насиловать тебя кочергой. Твои действия?
133 316447990
>>47713
Ничего он не шарит, DVD-R хранится лет 5, и слишком маленький по объёму
134 316448013
>>42186
Назови 10 игр по 150 гигов
11.mp418 Мб, mp4,
3:04
135 316448034
>>47879
>>47860
>>47829
>>47713

скоро вас будут ждать интересные времена. Компьютеры, без ограничений, на память, и вычисления. ( те самые квантовые пеки которые могут петабайты обрабатывать на обычной пеке )
2.mp416,8 Мб, mp4,
1166x576, 3:04
136 316448071
изображение.png3,7 Мб, 2048x1280
137 316448093
>>42793
Красиво придумал. Чуть допилить, и будет конфетка. Добытые файлы обретут для тебя историю.
138 316448139
>>42689

>ограниченное число циклов перезаписи


Не перезаписывай, засри под завязку его и дальше только читай данные с него.
Алсо, есть нюанс с этой вашей деградацией ячеек, если условные 70% сосоде заняты данными, а остальные 30% активно используются для хранения временных файлов, то эти самые 30% помрут намного быстрее, чем заявлено в TBW.

>если его часто не включать


Нельзя не включать - заряд в ячейках не может храниться вечно. Сосоде нужен внешний источник питания и усб-флешкам тоже, кста, пусть и не на постоянной основе.
139 316448219
>>47293

>нейрослоп


Хороший гой.
140 316448250
>>48219
Бесплатное сжатие файлов 10 раз, кстати
Гой только ты купивший винтов ради МАНЯМЕ
141 316448409
>>41807 (OP)
Зачем тебе 54 tb ты что собрался хранить архивы с интересными видео?
image.png82 Кб, 257x240
142 316448545
>>43154
На диски только бомжи бекапят
143 316448714
>>41807 (OP)
Посоветуйте что в первую очередь стоит выкачать на хард. Кроме флибусты и игрушек ничего в голову не приходит
image.png1,4 Мб, 1280x720
144 316448723
>>48545
На ленту только бомжи бэкапят
145 316448764
>>48714
Так и не придёт. Думаешь ты через 5 лет начнёшь больше интересоваться каким-то контентом? Наоборот кругозор ещё больше сузится. Скачивай то что сейчас интересует, больше ничего и не заинтересует.
146 316448776
>>41807 (OP)
Я на двачах с 2012 года, тогда же впервые наткнулся на чебурнет треды и трясунов качающих весь интернет. Прошло 13 лет, интернет до сих пор не заблокировали и мне интересно что сейчас делают те люди с контентом из 12 года на жёстких дисках, сохрани пж свой тред у себя на жёстком диске, через 10 лет создай тред и расскажи чем занимаешься, обновляешь ли свой контент и тд
147 316448801
>>41807 (OP)
Каждые полгода одна и та же песня. Прес ф долбаёбу и его денюжкам.
148 316448806
>>41807 (OP)

>Взял 3 таких красавчика.


Фотка с интернета.

Опять тред фантазеров.
149 316448843
>>48723
Ну если серьезно, то ленточное хранилище это вершина эволюции бэкапов.
image.png3,6 Мб, 1200x1600
150 316448856
>>48723
На флоппи только бомжи бэкапят.
151 316448885
>>48856
Пендосы подзорвут нейтронную бомбу, ЭМ импульс как жахнет и все твои магнитные носители отформатируются в нулину.

А перфоркарта пока не сгорит - будет нести информацию.
152 316448921
>>48071
Даун, если бы на свете повяился алгоритм эффективнее LZMA2 то он бы его уже вытеснил за считаные дни нахуй, а так как у тебя кроме видео ничего нет, то либо у тебя нихуя и не работает, либо ты просто пиздабол. Понимаешь? Можно твои вскукареки и видеоролики даже не смотреть, твою шизу не читать. Вот скоро, вот ещё немного и коммунизм! Вот когда сделоешь тогда и приноси свой кал.
153 316448995
>>48843
Не совсем, оно медленное, с него неудобно напрямую обращаться к данным. В индустриальных масштабах оно может и лучшее, а в масштабах до 200 Tб HDD лучше, само устройство записи и считывания стоит столько, сколько стопка винтов на 100 с чем-то Тб
33324.jpg93 Кб, 640x640
154 316449267
>>48921
В мире всего 15 человек про это знают, точнее, супер алгоритм работает на 4 парадоксах но они математически доказуемы. формула выше.

1) что доступно моей команде щас
-2) генерация, музыка, изображений, видео - без вычислений и памяти.

>повяился алгоритм эффективнее LZMA2


именно. это словари, на 40 гб. они рекурсивно сжимают и расжимают себя. это уже используется NVIDIA для DLLSS но там сжатие в 3 раза, те 3 рекурсии цикла. а можно делать бесконечно и разложить бесконечно вычисления

что с этим будешь делать? ломать биток? остальные 14 челов которые моделируют реальность тебя сольют.

Но предупрежу тебя заранее.....
1) шифрование невозможно
2) анонимность невозможна

в будущем будут раскрыты все преступления, просто смоделировав реальность. ( возможна наша реальность это симуляция )
155 316449405
>>48921

>Можно твои вскукареки и видеоролики даже не смотреть, твою шизу не читать.



Ну закончишь как Николай 2 - тогда, он тоже гидростанции и заводы не хотел строить.

Я как тян, не гений кодинга, но топовые компании в начале 2000 разложили весь бинарный код, и имеют триллионые профиты, не неся амортизации на хостинг и обслуживания, играя по правилам математического парадокса

математический парадокс, это то, что если наша вселенная это симуляция и математическая модель, то что ты будешь делать ,получив бесконечные блага, вычисления и память ?- Моделировать такой же мир?
156 316449579
>>49267

>моей команде


)
158 316449741
>>41807 (OP)
Бедный тарасик. Совсем запугали бедного....
159 316449798
>>48093
Во ты вспомнил игру! Бродил по дворам, как наркоман, ломал порталы, в какие-то ебеня за город катались. А потом покемоны появились
Sage 160 316450012
>>49405

>Я как тян


Ой блять...
161 316450058
Вообразили ебало этой шизотрансухи?
162 316450084
>>49711
Твой шенон полный идиот и дурак.
Он как бытовой идиот не додумался разложить ряды на библиотеки и словари. у 4 бит - 16 комбинаций у 16 комбинаций всего 256 комбинаций у 256 - всего 65 тысяч комбинаций или 35 гб постоянного словаря.

Например правило словаря

1 = 123456789
2 = 987654321

В рамках словаря это уже сжатие в 9 раз. ведь 1 число описывает 9 чисел. Таких словарей ты можешь в рекурсии наплодить сколько хочешь, ведь у страниц книг есть НОМЕР, страницы. но нас же интересует что бы строки и номера числа генерировались и описывались в рекурсии.

частично... это уже применяется в квантовании нейросетей когда 400 гб языковая модель становится сначала 32 гб весами а потом и 4 гб весами.
163 316450167
>>50084
То есть ты предлагаешь хранить словарь с комбинациями 1 - 123456789..., затем через него прогонять биты и превращать байт в один бит? После чего байт из новых битов, прогонять снова через словарь, и так пока не надоест. А в первом байте файла хранить количество итераций?
164 316450253
>>42186
Спокнись, чушка.

Call of Duty: Modern Warfare только весит 200+ гб
И Хитман какой-то ещё под 150. и всё!

Так что пошёл нахуй, шизоид аналитик мамкин.
Никому твоё мнение не всралось тут, умник прыщавый
165 316450359
>>50167
>>50167
Да, это делает этот код, а также это запатентовал Ян Слоот, но он был жмотом и умер до анонса метода

import os
import json
import tkinter as tk
from tkinter import filedialog, messagebox

DATA_FILE = "data.json"
COMPRESSED_EXT = ".ctxt"

ALPHABET = (
'ABCDEFGHIJKLMNOPQRSTUVWXYZ'
'abcdefghijklmnopqrstuvwxyz'
'0123456789'
'一丁七万丈三上下不与丑专且世丘丙业丛东丝丞丢两严並丧丨'
'अआइईउऊऋएऐओऔकखगघङचछजझञटठडढणतथदधनपफबभमयरलवशीष़ज़ािीुूृॅेैॉौं्аәбвгджзклмнөпрстуүфхцчшщъыьэюя' # Cyrillic and Devanagari
)
ALPHABET = ''.join(sorted(set(ALPHABET)))

def int_to_hash(n, length=4):
base = len(ALPHABET)
digits = []
for _ in range(length):
n, rem = divmod(n, base)
digits.append(rem)
return ''.join(ALPHABET[d] for d in reversed(digits))

def hash_to_int(hash_str):
base = len(ALPHABET)
code = 0
for char in hash_str:
code = code * base + ALPHABET.index(char)
return code

def split_into_2bit_blocks(data):
blocks = []
for byte in data:
blocks.extend([
(byte >> 6) & 0x03,
(byte >> 4) & 0x03,
(byte >> 2) & 0x03,
byte & 0x03
])
return blocks

def combine_from_2bit_blocks(blocks):
data = []
for i in range(0, len(blocks), 4):
chunk = blocks[i:i+4]
while len(chunk) < 4:
chunk.append(0)
byte = (chunk[0] << 6) | (chunk[1] << 4) | (chunk[2] << 2) | chunk[3]
data.append(byte)
return data

def compress(data, dictionaries):
current_data = split_into_2bit_blocks(data)
original_length = len(current_data)

for level in range(4):
if len(current_data) % 2 != 0:
current_data.append(0) # Padding
code_to_pair = dictionaries[level]
pair_to_code = {pair: idx for idx, pair in enumerate(code_to_pair)}
new_data = []
for i in range(0, len(current_data), 2):
pair = (current_data, current_data[i+1])
if pair in pair_to_code:
new_data.append(pair_to_code[pair])
else:
code = len(code_to_pair)
code_to_pair.append(pair)
pair_to_code[pair] = code
new_data.append(code)
current_data = new_data
if len(current_data) <= 1:
break

compressed_str = ''.join(int_to_hash(code) for code in current_data)
return f"{original_length}:{compressed_str}"

def decompress(compressed_str, dictionaries):
if ':' not in compressed_str:
messagebox.showerror("Error", "Invalid compressed format")
return []
original_length_str, hash_str = compressed_str.split(':', 1)
original_length = int(original_length_str)

hash_length = 4
chunked = [hash_str[i:i+hash_length] for i in range(0, len(hash_str), hash_length)]
try:
current_data = [hash_to_int(h) for h in chunked]
except ValueError:
return []

for level in reversed(range(4)):
if not current_data:
break
if level >= len(dictionaries):
continue
code_to_pair = dictionaries[level]
new_data = []
for code in current_data:
if code < len(code_to_pair):
new_data.extend(code_to_pair[code])
else:
return []
current_data = new_data

current_data = current_data[:original_length] # Trim padding
return combine_from_2bit_blocks(current_data)

def save_data_file(data):
try:
data["dictionary"] = [[list(p) for p in level] for level in data["dictionary"]]
with open(DATA_FILE, 'w') as f:
json.dump(data, f, indent=4)
except Exception as e:
messagebox.showerror("Error", f"Error saving data: {str(e)}")

def load_data_file():
try:
if os.path.exists(DATA_FILE):
with open(DATA_FILE, 'r') as f:
data = json.load(f)
data["dictionary"] = [[tuple(p) for p in level] for level in data["dictionary"]]
return data
except Exception as e:
messagebox.showerror("Error", f"Error loading data: {str(e)}")
return {"dictionary": [[] for _ in range(4)], "files": []}

class FileManager:
def __init__(self, root):
self.root = root
self.root.title("4-Level Compressor")
self.data = load_data_file()
self.dictionaries = self.data["dictionary"]

self.listbox = tk.Listbox(root)
self.listbox.pack(fill=tk.BOTH, expand=True)

btn_frame = tk.Frame(root)
btn_frame.pack(fill=tk.X)

self.compress_btn = tk.Button(btn_frame, text="Compress", command=self.compress_file)
self.compress_btn.pack(side=tk.LEFT, padx=5)

self.decompress_btn = tk.Button(btn_frame, text="Decompress", command=self.decompress_file)
self.decompress_btn.pack(side=tk.RIGHT, padx=5)

self.update_list()

def update_list(self):
self.listbox.delete(0, tk.END)
for f in self.data["files"]:
self.listbox.insert(tk.END, f)

def compress_file(self):
path = filedialog.askopenfilename()
if not path:
return

try:
with open(path, 'rb') as f:
data = f.read()
except Exception as e:
messagebox.showerror("Error", f"Read error: {str(e)}")
return

compressed = compress(list(data), self.dictionaries)
output_name = os.path.basename(path) + COMPRESSED_EXT

try:
with open(output_name, 'w', encoding='utf-8') as f:
f.write(compressed)
except Exception as e:
messagebox.showerror("Error", f"Write error: {str(e)}")
return

if output_name not in self.data["files"]:
self.data["files"].append(output_name)
save_data_file(self.data)
self.update_list()

def decompress_file(self):
selected = self.listbox.get(tk.ACTIVE)
if not selected:
return

save_path = filedialog.asksaveasfilename(
defaultextension=".bin",
initialfile=selected.replace(COMPRESSED_EXT, "")
)
if not save_path:
return

try:
with open(selected, 'r', encoding='utf-8') as f:
compressed_str = f.read()
except Exception as e:
messagebox.showerror("Error", f"Read error: {str(e)}")
return

decompressed = decompress(compressed_str, self.dictionaries)
if not decompressed:
messagebox.showerror("Error", "Decompression failed")
return

try:
with open(save_path, 'wb') as f:
f.write(bytes(decompressed))
messagebox.showinfo("Success", "File decompressed successfully!")
except Exception as e:
messagebox.showerror("Error", f"Write error: {str(e)}")

if __name__ == "__main__":
root = tk.Tk()
app = FileManager(root)
root.mainloop()
165 316450359
>>50167
>>50167
Да, это делает этот код, а также это запатентовал Ян Слоот, но он был жмотом и умер до анонса метода

import os
import json
import tkinter as tk
from tkinter import filedialog, messagebox

DATA_FILE = "data.json"
COMPRESSED_EXT = ".ctxt"

ALPHABET = (
'ABCDEFGHIJKLMNOPQRSTUVWXYZ'
'abcdefghijklmnopqrstuvwxyz'
'0123456789'
'一丁七万丈三上下不与丑专且世丘丙业丛东丝丞丢两严並丧丨'
'अआइईउऊऋएऐओऔकखगघङचछजझञटठडढणतथदधनपफबभमयरलवशीष़ज़ािीुूृॅेैॉौं्аәбвгджзклмнөпрстуүфхцчшщъыьэюя' # Cyrillic and Devanagari
)
ALPHABET = ''.join(sorted(set(ALPHABET)))

def int_to_hash(n, length=4):
base = len(ALPHABET)
digits = []
for _ in range(length):
n, rem = divmod(n, base)
digits.append(rem)
return ''.join(ALPHABET[d] for d in reversed(digits))

def hash_to_int(hash_str):
base = len(ALPHABET)
code = 0
for char in hash_str:
code = code * base + ALPHABET.index(char)
return code

def split_into_2bit_blocks(data):
blocks = []
for byte in data:
blocks.extend([
(byte >> 6) & 0x03,
(byte >> 4) & 0x03,
(byte >> 2) & 0x03,
byte & 0x03
])
return blocks

def combine_from_2bit_blocks(blocks):
data = []
for i in range(0, len(blocks), 4):
chunk = blocks[i:i+4]
while len(chunk) < 4:
chunk.append(0)
byte = (chunk[0] << 6) | (chunk[1] << 4) | (chunk[2] << 2) | chunk[3]
data.append(byte)
return data

def compress(data, dictionaries):
current_data = split_into_2bit_blocks(data)
original_length = len(current_data)

for level in range(4):
if len(current_data) % 2 != 0:
current_data.append(0) # Padding
code_to_pair = dictionaries[level]
pair_to_code = {pair: idx for idx, pair in enumerate(code_to_pair)}
new_data = []
for i in range(0, len(current_data), 2):
pair = (current_data, current_data[i+1])
if pair in pair_to_code:
new_data.append(pair_to_code[pair])
else:
code = len(code_to_pair)
code_to_pair.append(pair)
pair_to_code[pair] = code
new_data.append(code)
current_data = new_data
if len(current_data) <= 1:
break

compressed_str = ''.join(int_to_hash(code) for code in current_data)
return f"{original_length}:{compressed_str}"

def decompress(compressed_str, dictionaries):
if ':' not in compressed_str:
messagebox.showerror("Error", "Invalid compressed format")
return []
original_length_str, hash_str = compressed_str.split(':', 1)
original_length = int(original_length_str)

hash_length = 4
chunked = [hash_str[i:i+hash_length] for i in range(0, len(hash_str), hash_length)]
try:
current_data = [hash_to_int(h) for h in chunked]
except ValueError:
return []

for level in reversed(range(4)):
if not current_data:
break
if level >= len(dictionaries):
continue
code_to_pair = dictionaries[level]
new_data = []
for code in current_data:
if code < len(code_to_pair):
new_data.extend(code_to_pair[code])
else:
return []
current_data = new_data

current_data = current_data[:original_length] # Trim padding
return combine_from_2bit_blocks(current_data)

def save_data_file(data):
try:
data["dictionary"] = [[list(p) for p in level] for level in data["dictionary"]]
with open(DATA_FILE, 'w') as f:
json.dump(data, f, indent=4)
except Exception as e:
messagebox.showerror("Error", f"Error saving data: {str(e)}")

def load_data_file():
try:
if os.path.exists(DATA_FILE):
with open(DATA_FILE, 'r') as f:
data = json.load(f)
data["dictionary"] = [[tuple(p) for p in level] for level in data["dictionary"]]
return data
except Exception as e:
messagebox.showerror("Error", f"Error loading data: {str(e)}")
return {"dictionary": [[] for _ in range(4)], "files": []}

class FileManager:
def __init__(self, root):
self.root = root
self.root.title("4-Level Compressor")
self.data = load_data_file()
self.dictionaries = self.data["dictionary"]

self.listbox = tk.Listbox(root)
self.listbox.pack(fill=tk.BOTH, expand=True)

btn_frame = tk.Frame(root)
btn_frame.pack(fill=tk.X)

self.compress_btn = tk.Button(btn_frame, text="Compress", command=self.compress_file)
self.compress_btn.pack(side=tk.LEFT, padx=5)

self.decompress_btn = tk.Button(btn_frame, text="Decompress", command=self.decompress_file)
self.decompress_btn.pack(side=tk.RIGHT, padx=5)

self.update_list()

def update_list(self):
self.listbox.delete(0, tk.END)
for f in self.data["files"]:
self.listbox.insert(tk.END, f)

def compress_file(self):
path = filedialog.askopenfilename()
if not path:
return

try:
with open(path, 'rb') as f:
data = f.read()
except Exception as e:
messagebox.showerror("Error", f"Read error: {str(e)}")
return

compressed = compress(list(data), self.dictionaries)
output_name = os.path.basename(path) + COMPRESSED_EXT

try:
with open(output_name, 'w', encoding='utf-8') as f:
f.write(compressed)
except Exception as e:
messagebox.showerror("Error", f"Write error: {str(e)}")
return

if output_name not in self.data["files"]:
self.data["files"].append(output_name)
save_data_file(self.data)
self.update_list()

def decompress_file(self):
selected = self.listbox.get(tk.ACTIVE)
if not selected:
return

save_path = filedialog.asksaveasfilename(
defaultextension=".bin",
initialfile=selected.replace(COMPRESSED_EXT, "")
)
if not save_path:
return

try:
with open(selected, 'r', encoding='utf-8') as f:
compressed_str = f.read()
except Exception as e:
messagebox.showerror("Error", f"Read error: {str(e)}")
return

decompressed = decompress(compressed_str, self.dictionaries)
if not decompressed:
messagebox.showerror("Error", "Decompression failed")
return

try:
with open(save_path, 'wb') as f:
f.write(bytes(decompressed))
messagebox.showinfo("Success", "File decompressed successfully!")
except Exception as e:
messagebox.showerror("Error", f"Write error: {str(e)}")

if __name__ == "__main__":
root = tk.Tk()
app = FileManager(root)
root.mainloop()
166 316450548
>>42186

> Сейчас игры весят по 150гб.


так этот дегенеративный кал и не нужен для того, чтобы быть помещенным в какое-то цифровое хранилище
большинство игр по объему лежат в диапазоне 150-1000мб
167 316450549
>>50167
есть алгоритм без словарей но там сегментов ссылок рекурсивных на 300 мб

Сегменты: Память делится на сегменты, каждый из которых может занимать до 64 КБ (65536 байт). Сегмент определяется своим базовым адресом, который умножается на 16 (так как сегменты выровнены по 16-байтовым границам). Таким образом, физический адрес вычисляется как Физический адрес = (Сегмент x 16) + Смещение.

увы навыков моей команды и моих тянских навыков не хватает это запрогать а также ИИ не может.
168 316450891
>>50167
самое великое открытие. В информатике метка разного словаря позволяет кодировать одним и тем же бинарным кодом разные буквы. таким образом если будет создан алгоритм то он будет работаь без словарей и вычислений ибо всё факторизованно

1-A
111000111
2-B
111000111
3-D
111000111
4-C
111000111

Простой пример, лук, и лук - два смысла
Второй пример, замок, и замок.
В зависимости от контекста смысл другой )
или кот - kit
169 316450910
>>50549
Подвох и наебалово чувствую я.
sage 170 316450975

>ХДД)))

171 316451048
>>48801

>и его денюжкам


Рили)) Надо было как ты, просрать на свинобухло под совковый хлеп и задонатить на спецхуяцию))))))0
172 316451095
>>50910
Инструкции как создать атомное, есть с 50 годов во всех библиотеках мира, но атомным обладает ток 5 странн потом 20 странн а на планете 200 странн. те покуда одни строили цивилизацию, школы, заводы, другие поёбывали осликов. им прост это ненужно.

в 1989 году, был открыт принцип рекурсивных инструкций которые описывают аблютно всё, и даже свободу воли. Вопрос ли, нужно ли это людям? если нужно, почему не требуют?
zs9hob1yz2fd1.png1,4 Мб, 1158x1086
173 316451149
>>51095
Челован, успокойся. Этот тред пуст. Ты мне пишешь, а я заебал уже тебе подыгрывать. Двач мёртв. Весь интернет мёртв.
174 316451251
Раньше на старом пк с флайлинка скачивал, сейчас хотел установить его опять, антивирус не хочет, чтобы его ебали.
175 316451671
Эх, опоздал на начало такого нужного треда. Сам третьего дня тоже приобрёл Das orico и два по 4тб в зеркало въебал для архива флибусты, музла, личных фоток, кучи сериалов и фильмов, игор и тд. Прям нарадоваться не могу, что решился.
176 316451782
>>51671

>въебал для архива флибусты, музла, личных фоток, кучи сериалов и фильмов, игор и тд.


и нахуя всё это говно нужно?
177 316451828
>>41807 (OP)
сколько заплатил?
178 316451875
>>51671
Хороший ход, сам купил терабайт хдд и терабайт ссд памяти (решил интереса ради и её взять). Пока хватает, заархивировал всё что нужно. Но нужно будет взять дополнительные винты для бекапов.
179 316452225
>>41958
Сейм Антон на компе грузит херово, а на телефоне летает
180 316452301
>>51782
Если что-то не нужно тебе, то это не значит, что что-то не нужно другим.
181 316452335
>>42186
Во что вы там всё играете, дай бог 1 игра в год выходит не пососная
182 316452352
>>51875
Десятка может сама рейды делать. Лучше всего зеркальный. Если отъебал один из двух дисков - просто меняешь его и он снова зеркалит всю информацию.
183 316452369
>>47459
Хз, это что-то на питерском
184 316452809
Анон
Имеет смысл просто скачивать торренты, неразархивируя их? Типо потом когда надо будет, тогда поставить на разархив?
Drawn.TogetherS02E09Xandir.And.Tim.Sitting.In.A.Tree (online-video-cutter.com).mp41,3 Мб, mp4,
368x272, 0:15
185 316452841

>>316451030


Дак нахрена мне детское, оно же для детей, мне нужно взрослое порно с маленькими детьми. МАЛЕНЬКИМИ. ДЕТЬМИ. МАЛЕНЬКИЕ ДЕТИ. ПОРНО. ДЕТСКОЕ ПОРНО. ЁБЛЯ ДЕТЕЙ.

Сейчас я отправлю тебе свои контакты что бы ты мог мне прислать ДЕТСКОЕ ПОРНО, сразу после того как я пришлю тебе серию и номер своего паспорта, личные фотографии, включая те,где я смотрю ДЕТСКОЕ ПОРНО И мастурбирую на него, а затем вышлю свой адрес прописки и проживания, не забыв указать своё настоящее имя и фамилию.
186 316452933
>>52841
блин, пока готовился отправить сообщения, сообщение парня с ДЕТСКИМ ПОРНО к сожалению потёрли. А ведь я так хотел что бы он мне отправил ДЕТСКОЕ ПОРНО
187 316452971
>>52352
Интересная инфа - спасибо.
188 316453014
>>52933
Видимо мой репорт сработал, кекв.
189 316453066
>>53014
Ну ты и пидор. Рака яиц тебе тогда. Таких как ты нужно отстреливать, что бы не портили людям жизнь в интернете.
190 316453193
Подведем промежуточный итог треда. Такой хуйней занимаются только додики чтобы складировать снафф и ЦП.
191 316453361
>>53193
Как будто что то плохое
192 316453364
Это вы на случай апокалипсиса готовитесь?
193 316453533
Добавал в архив. На досуге почитаю.
Люблю такое. Сам интернет-плюшкин. Всё из детства видимо, когда интернет диал-ап а данные кочевали на флопи и СД
Это сегодняшние пыниксы не особо понимают суть.
Типа ну нвме под систему и еще 1 тб (ссд, хдд неважно). Все остальное в интернете есть.
Но большая часть (бесплатного) храниться у таких же плюшкиных как и я на их личных ХДД. Которые рипают, сканируют, оцифровывают и в конечном итоге предоставляют в открытый доступ миру.
https://arhivach.hk/thread/1130936/
photo40822@02-02-202315-51-35.jpg109 Кб, 476x576
194 316453772
>>41807 (OP)
Это ж сколько смишных картинок можно скачать
195 316453896
>>41807 (OP)

> 18 терабайт


Сколько такой НЖМД стоит?
image.png34 Кб, 142x170
196 316454159
>>53896

>Сколько такой НЖМД стоит?

Обновить тред
« /b/В начало тредаВеб-версияНастройки
/a//b//mu//s//vg/Все доски

Скачать тред только с превьюс превью и прикрепленными файлами

Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах.Подробнее