made all cache files be saved in data/
authorForrest Voight <forrest@forre.st>
Thu, 8 Dec 2011 23:48:26 +0000 (18:48 -0500)
committerForrest Voight <forrest@forre.st>
Thu, 8 Dec 2011 23:48:26 +0000 (18:48 -0500)
.gitignore
dump_addrs.py [deleted file]
p2pool/main.py

index e490754..d1e1463 100644 (file)
@@ -1,7 +1,4 @@
 *.pyc
-*.dat
-*.iml
-*.log
-*_shares.*
-.idea
+/data/
+*~
 litecoin_scrypt/build/*
diff --git a/dump_addrs.py b/dump_addrs.py
deleted file mode 100644 (file)
index 665f983..0000000
+++ /dev/null
@@ -1,16 +0,0 @@
-from __future__ import division
-
-import os
-import sqlite3
-import time
-
-from p2pool.util import db
-from p2pool import p2p, data, networks
-
-for net_name in networks.realnets.iterkeys():
-    print
-    print net_name
-    x = p2p.AddrStore(db.SQLiteDict(sqlite3.connect(os.path.join(os.path.dirname(__file__), 'addrs.dat'), isolation_level=None), net_name))
-    
-    for i, (k, v) in enumerate(sorted(x.iteritems(), key=lambda (k, v): time.time() - v[-1])):
-        print i, k, v, (time.time() - v[-1])/24/60/60
index d17c952..dd32c60 100644 (file)
@@ -51,7 +51,7 @@ def get_payout_script2(bitcoind, net):
     defer.returnValue(bitcoin_data.pubkey_to_script2(pubkey))
 
 @defer.inlineCallbacks
-def main(args, net):
+def main(args, net, datadir_path):
     try:
         print 'p2pool (version %s)' % (p2pool.__version__,)
         print
@@ -97,7 +97,7 @@ def main(args, net):
         
         tracker = p2pool_data.OkayTracker(net)
         shared_share_hashes = set()
-        ss = p2pool_data.ShareStore(os.path.join(os.path.dirname(sys.argv[0]), net.NAME + '_shares.'), net)
+        ss = p2pool_data.ShareStore(os.path.join(datadir_path, 'shares.'), net)
         known_verified = set()
         print "Loading shares..."
         for i, (mode, contents) in enumerate(ss.get_shares()):
@@ -315,12 +315,12 @@ def main(args, net):
         
         addrs = {}
         try:
-            addrs = dict(eval(x) for x in open(os.path.join(os.path.dirname(sys.argv[0]), net.NAME + '_addrs.txt')))
+            addrs = dict(eval(x) for x in open(os.path.join(datadir_path, 'addrs.txt')))
         except:
             print "error reading addrs"
         
         def save_addrs():
-            open(os.path.join(os.path.dirname(sys.argv[0]), net.NAME + '_addrs.txt'), 'w').writelines(repr(x) + '\n' for x in addrs.iteritems())
+            open(os.path.join(datadir_path, 'addrs.txt'), 'w').writelines(repr(x) + '\n' for x in addrs.iteritems())
         task.LoopingCall(save_addrs).start(60)
         
         p2p_node = p2p.Node(
@@ -763,8 +763,12 @@ def run():
     
     net = networks.nets[args.net_name + ('_testnet' if args.testnet else '')]
     
+    datadir_path = os.path.join(os.path.dirname(sys.argv[0]), 'data', net.NAME)
+    if not os.path.exists(datadir_path):
+        os.makedirs(datadir_path)
+    
     if args.logfile is None:
-        args.logfile = os.path.join(os.path.dirname(sys.argv[0]), net.NAME + '.log')
+        args.logfile = os.path.join(datadir_path, 'log')
     
     class LogFile(object):
         def __init__(self, filename):
@@ -849,5 +853,5 @@ def run():
     if (args.merged_url is None) ^ (args.merged_userpass is None):
         parser.error('must specify --merged-url and --merged-userpass')
     
-    reactor.callWhenRunning(main, args, net)
+    reactor.callWhenRunning(main, args, net, datadir_path)
     reactor.run()