Angenommen ich hätte ein Google Drive mit 100TB.
Gefüllt mit allen Serien in 720p.
Könnte man daraus finanziellen gewinn machen durch Filesharing oder sonst irgendwie?
Angenommen ich hätte ein Google Drive mit 100TB.
Gefüllt mit allen Serien in 720p.
Könnte man daraus finanziellen gewinn machen durch Filesharing oder sonst irgendwie?
1) Nimm etwas Geld oder Zeit in die Hand und organisier dir ein Upload- sowie Reupload Script und lass das auf Warezseiten eintragen was du an Serien hast.
2) Hol dir nen Server, mounte das Drive darauf, installier das FTP/FXP Gedöns und biete das ganze als Archiv an
You are offline
Try:
- Don't Panic
- Look around
- Interact with reality
Du kannst das Drive als Laufwerk mounten da reicht sogar ein simpler VPS mit aktivierten FUSE
You are offline
Try:
- Don't Panic
- Look around
- Interact with reality
Veesp, Wishosting und Hostsailor supporten FUSE soweit mir bekannt. Frag vorsichtshalber vorher per Ticket nach falls Google nix ausspuckt
You are offline
Try:
- Don't Panic
- Look around
- Interact with reality
Wenn ich nicht komplett auf Holzweg bin, dann genügt ein VPS auf KVM Basis. Da sollte Fuse dann problemlos laufen ohne Zutun des Anbieters (bei OpenVZ/LXC/XEN ist das anders).supporten FUSE
Dir ist aber bewusst, dass Google fürs Drive ein Limit über API von 700 bzw. 750GB pro 24 Stunden für Download / Upload setzt. Ob das auch für Download gilt, bin ich mir gerade nicht ganz sicher.
SzeneBox.org bei Telegram https://t.me/szenebox
Korrekt mit KVM sollte das standardmässig aktiviert sein und die Begrenzung von 750gb gilt nur für den Upload
You are offline
Try:
- Don't Panic
- Look around
- Interact with reality
Falls du es mal versuchen möchtest, könnte dir folgendes helfen. Ich beziehe mich hier auf das OS Debian und Ubuntu.
# Grundlegendes
apt-get update
apt-get install fuse unzip screen -y
# Rclone Install (x64 Debian/Ubuntu)
wget https://downloads.rclone.org/rclone-...inux-amd64.zip
unzip rclone-current-linux-*.zip
mv rclone-*/rclone /usr/sbin/
chown root:root /usr/sbin/rclone
chmod 755 /usr/sbin/rclone
rm -R rclone-*
# Rclone Setup
https://rclone.org/drive/
# Rclone mount (https://rclone.org/commands/rclone_mount/)
screen -S rclone
rclone mount --fast-list -vvv --umask 0 --max-read-ahead 128 --buffer-size 1G --allow-other <drive-name>: /mount/to/...
# Screen Session verlassen
STRG+A+D
# Screen Session wieder betreten
screen -x rclone
SzeneBox.org bei Telegram https://t.me/szenebox
Bei Google Drive gibt es auch ein DL-Limit, weiss grad nicht wie viel, aber kann man auch recht schnell erreichen am Tag ...
Das DL-Limit liegt bei 10 TB (9,9...paar zerquetschte, schlag mich tot), würde für so ein unterfangen jedoch PlexDrive empfehlen.
Nutze es selbst so mit einer 600 TB Drive für Plex und als NGINX Page für Kumpels, läuft ohne Probleme.
Server sollte KVM sein und bisschen Speicher für die Datenbank von Plexdrive haben - ganz wichtig, Bandbreite ^^
Haut mich tot, aber gab es da nicht früher schon Probleme mit Google Drive, das die bei zu viel Traffic oder anderen auffälligkeiten überprüfen was droben ist, und dann gegebenenfalls den Account einfach löschen ?
Oder galt das nur wenn zu viele unterschiedliche IPs zugreifen, weil jemand direktdownloads damit anbietet ?
Wenn ich das als Archiv anbieten würde, wie müsste ich vorgehen?
Kann man das als Subscription anbieten oder müsste ich jedesmal user hinzufügen und danach wieder entfernen?