address.subscribe
[electrum-server.git] / server.py
1 #!/usr/bin/env python
2 # Copyright(C) 2011 thomasv@gitorious
3
4 # This program is free software: you can redistribute it and/or modify
5 # it under the terms of the GNU Affero General Public License as
6 # published by the Free Software Foundation, either version 3 of the
7 # License, or (at your option) any later version.
8 #
9 # This program is distributed in the hope that it will be useful, but
10 # WITHOUT ANY WARRANTY; without even the implied warranty of
11 # MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
12 # Affero General Public License for more details.
13 #
14 # You should have received a copy of the GNU Affero General Public
15 # License along with this program.  If not, see
16 # <http://www.gnu.org/licenses/agpl.html>.
17
18 """
19 Todo:
20    * server should check and return bitcoind status..
21    * improve txpoint sorting
22    * command to check cache
23
24  mempool transactions do not need to be added to the database; it slows it down
25 """
26
27
28 import time, json, socket, operator, thread, ast, sys,re
29 import psycopg2, binascii
30
31 from Abe.abe import hash_to_address, decode_check_address
32 from Abe.DataStore import DataStore as Datastore_class
33 from Abe import DataStore, readconf, BCDataStream,  deserialize, util, base58
34
35 import ConfigParser
36 from json import dumps, loads
37 import urllib
38
39 # we need to import electrum
40 sys.path.append('../client/')
41 from wallet import Wallet
42 from interface import Interface
43
44
45 config = ConfigParser.ConfigParser()
46 # set some defaults, which will be overwritten by the config file
47 config.add_section('server')
48 config.set('server','banner', 'Welcome to Electrum!')
49 config.set('server', 'host', 'localhost')
50 config.set('server', 'port', 50000)
51 config.set('server', 'password', '')
52 config.set('server', 'irc', 'yes')
53 config.set('server', 'ircname', 'Electrum server')
54 config.add_section('database')
55 config.set('database', 'type', 'psycopg2')
56 config.set('database', 'database', 'abe')
57
58 try:
59     f = open('/etc/electrum.conf','r')
60     config.readfp(f)
61     f.close()
62 except:
63     print "Could not read electrum.conf. I will use the default values."
64
65 try:
66     f = open('/etc/electrum.banner','r')
67     config.set('server','banner', f.read())
68     f.close()
69 except:
70     pass
71
72 password = config.get('server','password')
73 bitcoind_url = 'http://%s:%s@%s:%s/' % ( config.get('bitcoind','user'), config.get('bitcoind','password'), config.get('bitcoind','host'), config.get('bitcoind','port'))
74
75 stopping = False
76 block_number = -1
77 old_block_number = -1
78 sessions = {}
79 sessions_sub_numblocks = {} # sessions that have subscribed to the service
80
81 dblock = thread.allocate_lock()
82 peer_list = {}
83
84 wallets = {} # for ultra-light clients such as bccapi
85
86 from Queue import Queue
87 input_queue = Queue()
88 output_queue = Queue()
89 address_queue = Queue()
90
91 class MyStore(Datastore_class):
92
93     def import_block(self, b, chain_ids=frozenset()):
94         block_id = super(MyStore, self).import_block(b, chain_ids)
95         #print "block", block_id
96         for pos in xrange(len(b['transactions'])):
97             tx = b['transactions'][pos]
98             if 'hash' not in tx:
99                 tx['hash'] = util.double_sha256(tx['tx'])
100             tx_id = store.tx_find_id_and_value(tx)
101             if tx_id:
102                 self.update_tx_cache(tx_id)
103             else:
104                 print "error: import_block: no tx_id"
105         return block_id
106
107
108     def update_tx_cache(self, txid):
109         inrows = self.get_tx_inputs(txid, False)
110         for row in inrows:
111             _hash = store.binout(row[6])
112             address = hash_to_address(chr(0), _hash)
113             if self.tx_cache.has_key(address):
114                 print "cache: invalidating", address
115                 self.tx_cache.pop(address)
116             address_queue.put(address)
117
118         outrows = self.get_tx_outputs(txid, False)
119         for row in outrows:
120             _hash = store.binout(row[6])
121             address = hash_to_address(chr(0), _hash)
122             if self.tx_cache.has_key(address):
123                 print "cache: invalidating", address
124                 self.tx_cache.pop(address)
125             address_queue.put(address)
126
127     def safe_sql(self,sql, params=(), lock=True):
128         try:
129             if lock: dblock.acquire()
130             ret = self.selectall(sql,params)
131             if lock: dblock.release()
132             return ret
133         except:
134             print "sql error", sql
135             return []
136
137     def get_tx_outputs(self, tx_id, lock=True):
138         return self.safe_sql("""SELECT
139                 txout.txout_pos,
140                 txout.txout_scriptPubKey,
141                 txout.txout_value,
142                 nexttx.tx_hash,
143                 nexttx.tx_id,
144                 txin.txin_pos,
145                 pubkey.pubkey_hash
146               FROM txout
147               LEFT JOIN txin ON (txin.txout_id = txout.txout_id)
148               LEFT JOIN pubkey ON (pubkey.pubkey_id = txout.pubkey_id)
149               LEFT JOIN tx nexttx ON (txin.tx_id = nexttx.tx_id)
150              WHERE txout.tx_id = %d 
151              ORDER BY txout.txout_pos
152         """%(tx_id), (), lock)
153
154     def get_tx_inputs(self, tx_id, lock=True):
155         return self.safe_sql(""" SELECT
156                 txin.txin_pos,
157                 txin.txin_scriptSig,
158                 txout.txout_value,
159                 COALESCE(prevtx.tx_hash, u.txout_tx_hash),
160                 prevtx.tx_id,
161                 COALESCE(txout.txout_pos, u.txout_pos),
162                 pubkey.pubkey_hash
163               FROM txin
164               LEFT JOIN txout ON (txout.txout_id = txin.txout_id)
165               LEFT JOIN pubkey ON (pubkey.pubkey_id = txout.pubkey_id)
166               LEFT JOIN tx prevtx ON (txout.tx_id = prevtx.tx_id)
167               LEFT JOIN unlinked_txin u ON (u.txin_id = txin.txin_id)
168              WHERE txin.tx_id = %d
169              ORDER BY txin.txin_pos
170              """%(tx_id,), (), lock)
171
172     def get_address_out_rows(self, dbhash):
173         return self.safe_sql(""" SELECT
174                 b.block_nTime,
175                 cc.chain_id,
176                 b.block_height,
177                 1,
178                 b.block_hash,
179                 tx.tx_hash,
180                 tx.tx_id,
181                 txin.txin_pos,
182                 -prevout.txout_value
183               FROM chain_candidate cc
184               JOIN block b ON (b.block_id = cc.block_id)
185               JOIN block_tx ON (block_tx.block_id = b.block_id)
186               JOIN tx ON (tx.tx_id = block_tx.tx_id)
187               JOIN txin ON (txin.tx_id = tx.tx_id)
188               JOIN txout prevout ON (txin.txout_id = prevout.txout_id)
189               JOIN pubkey ON (pubkey.pubkey_id = prevout.pubkey_id)
190              WHERE pubkey.pubkey_hash = ?
191                AND cc.in_longest = 1""", (dbhash,))
192
193     def get_address_out_rows_memorypool(self, dbhash):
194         return self.safe_sql(""" SELECT
195                 1,
196                 tx.tx_hash,
197                 tx.tx_id,
198                 txin.txin_pos,
199                 -prevout.txout_value
200               FROM tx 
201               JOIN txin ON (txin.tx_id = tx.tx_id)
202               JOIN txout prevout ON (txin.txout_id = prevout.txout_id)
203               JOIN pubkey ON (pubkey.pubkey_id = prevout.pubkey_id)
204              WHERE pubkey.pubkey_hash = ? """, (dbhash,))
205
206     def get_address_in_rows(self, dbhash):
207         return self.safe_sql(""" SELECT
208                 b.block_nTime,
209                 cc.chain_id,
210                 b.block_height,
211                 0,
212                 b.block_hash,
213                 tx.tx_hash,
214                 tx.tx_id,
215                 txout.txout_pos,
216                 txout.txout_value
217               FROM chain_candidate cc
218               JOIN block b ON (b.block_id = cc.block_id)
219               JOIN block_tx ON (block_tx.block_id = b.block_id)
220               JOIN tx ON (tx.tx_id = block_tx.tx_id)
221               JOIN txout ON (txout.tx_id = tx.tx_id)
222               JOIN pubkey ON (pubkey.pubkey_id = txout.pubkey_id)
223              WHERE pubkey.pubkey_hash = ?
224                AND cc.in_longest = 1""", (dbhash,))
225
226     def get_address_in_rows_memorypool(self, dbhash):
227         return self.safe_sql( """ SELECT
228                 0,
229                 tx.tx_hash,
230                 tx.tx_id,
231                 txout.txout_pos,
232                 txout.txout_value
233               FROM tx
234               JOIN txout ON (txout.tx_id = tx.tx_id)
235               JOIN pubkey ON (pubkey.pubkey_id = txout.pubkey_id)
236              WHERE pubkey.pubkey_hash = ? """, (dbhash,))
237
238     def get_history(self, addr):
239         
240         cached_version = self.tx_cache.get( addr )
241         if cached_version is not None:
242             return cached_version
243
244         version, binaddr = decode_check_address(addr)
245         if binaddr is None:
246             return None
247
248         dbhash = self.binin(binaddr)
249         rows = []
250         rows += self.get_address_out_rows( dbhash )
251         rows += self.get_address_in_rows( dbhash )
252
253         txpoints = []
254         known_tx = []
255
256         for row in rows:
257             try:
258                 nTime, chain_id, height, is_in, blk_hash, tx_hash, tx_id, pos, value = row
259             except:
260                 print "cannot unpack row", row
261                 break
262             tx_hash = self.hashout_hex(tx_hash)
263             txpoint = {
264                     "nTime":    int(nTime),
265                     "height":   int(height),
266                     "is_in":    int(is_in),
267                     "blk_hash": self.hashout_hex(blk_hash),
268                     "tx_hash":  tx_hash,
269                     "tx_id":    int(tx_id),
270                     "pos":      int(pos),
271                     "value":    int(value),
272                     }
273
274             txpoints.append(txpoint)
275             known_tx.append(self.hashout_hex(tx_hash))
276
277
278         # todo: sort them really...
279         txpoints = sorted(txpoints, key=operator.itemgetter("nTime"))
280
281         # read memory pool
282         rows = []
283         rows += self.get_address_in_rows_memorypool( dbhash )
284         rows += self.get_address_out_rows_memorypool( dbhash )
285         address_has_mempool = False
286
287         for row in rows:
288             is_in, tx_hash, tx_id, pos, value = row
289             tx_hash = self.hashout_hex(tx_hash)
290             if tx_hash in known_tx:
291                 continue
292
293             # this means that pending transactions were added to the db, even if they are not returned by getmemorypool
294             address_has_mempool = True
295
296             # this means pending transactions are returned by getmemorypool
297             if tx_hash not in self.mempool_keys:
298                 continue
299
300             #print "mempool", tx_hash
301             txpoint = {
302                     "nTime":    0,
303                     "height":   0,
304                     "is_in":    int(is_in),
305                     "blk_hash": 'mempool', 
306                     "tx_hash":  tx_hash,
307                     "tx_id":    int(tx_id),
308                     "pos":      int(pos),
309                     "value":    int(value),
310                     }
311             txpoints.append(txpoint)
312
313
314         for txpoint in txpoints:
315             tx_id = txpoint['tx_id']
316             
317             txinputs = []
318             inrows = self.get_tx_inputs(tx_id)
319             for row in inrows:
320                 _hash = self.binout(row[6])
321                 address = hash_to_address(chr(0), _hash)
322                 txinputs.append(address)
323             txpoint['inputs'] = txinputs
324             txoutputs = []
325             outrows = self.get_tx_outputs(tx_id)
326             for row in outrows:
327                 _hash = self.binout(row[6])
328                 address = hash_to_address(chr(0), _hash)
329                 txoutputs.append(address)
330             txpoint['outputs'] = txoutputs
331
332             # for all unspent inputs, I want their scriptpubkey. (actually I could deduce it from the address)
333             if not txpoint['is_in']:
334                 # detect if already redeemed...
335                 for row in outrows:
336                     if row[6] == dbhash: break
337                 else:
338                     raise
339                 #row = self.get_tx_output(tx_id,dbhash)
340                 # pos, script, value, o_hash, o_id, o_pos, binaddr = row
341                 # if not redeemed, we add the script
342                 if row:
343                     if not row[4]: txpoint['raw_scriptPubKey'] = row[1]
344
345         # cache result
346         if not address_has_mempool:
347             self.tx_cache[addr] = txpoints
348         
349         return txpoints
350
351
352
353 class Direct_Interface(Interface):
354     def __init__(self):
355         pass
356
357     def handler(self, method, params = ''):
358         cmds = {'session.new':new_session,
359                 'session.poll':poll_session,
360                 'session.update':update_session,
361                 'transaction.broadcast':send_tx,
362                 'address.get_history':store.get_history
363                 }
364         func = cmds[method]
365         return func( params )
366
367
368
369 def send_tx(tx):
370     postdata = dumps({"method": 'importtransaction', 'params': [tx], 'id':'jsonrpc'})
371     respdata = urllib.urlopen(bitcoind_url, postdata).read()
372     r = loads(respdata)
373     if r['error'] != None:
374         out = "error: transaction rejected by memorypool\n"+tx
375     else:
376         out = r['result']
377     return out
378
379
380
381 def random_string(N):
382     import random, string
383     return ''.join(random.choice(string.ascii_uppercase + string.digits) for x in range(N))
384
385     
386
387 def cmd_stop(data):
388     global stopping
389     if password == data:
390         stopping = True
391         return 'ok'
392     else:
393         return 'wrong password'
394
395 def cmd_load(pw):
396     if password == pw:
397         return repr( len(sessions) )
398     else:
399         return 'wrong password'
400
401
402 def clear_cache(pw):
403     if password == pw:
404         store.tx_cache = {}
405         return 'ok'
406     else:
407         return 'wrong password'
408
409 def get_cache(pw,addr):
410     if password == pw:
411         return store.tx_cache.get(addr)
412     else:
413         return 'wrong password'
414
415
416 def poll_session(session_id):
417     session = sessions.get(session_id)
418     if session is None:
419         print time.asctime(), "session not found", session_id
420         out = repr( (-1, {}))
421     else:
422         t1 = time.time()
423         addresses = session['addresses']
424         session['last_time'] = time.time()
425         ret = {}
426         k = 0
427         for addr in addresses:
428             if store.tx_cache.get( addr ) is not None: k += 1
429             status = get_address_status( addr )
430             last_status = addresses.get( addr )
431             if last_status != status:
432                 addresses[addr] = status
433                 ret[addr] = status
434         if ret:
435             sessions[session_id]['addresses'] = addresses
436         out = repr( (block_number, ret ) )
437         t2 = time.time() - t1 
438         if t2 > 10:
439             print "high load:", session_id, "%d/%d"%(k,len(addresses)), t2
440
441         return out
442
443
444 def do_update_address(addr):
445     # an address was involved in a transaction; we check if it was subscribed to in a session
446     # the address can be subscribed in several sessions; the cache should ensure that we don't do redundant requests
447     for session_id in sessions.keys():
448         session = sessions[session_id]
449         if session.get('type') != 'persistent': continue
450         addresses = session['addresses'].keys()
451
452         if addr in addresses:
453             status = get_address_status( addr )
454             message_id, last_status = session['addresses'][addr]
455             if last_status != status:
456                 #print "sending new status for %s:"%addr, status
457                 send_status(session_id,message_id,addr,status)
458                 sessions[session_id]['addresses'][addr] = (message_id,status)
459
460
461 def get_address_status(addr):
462     # get address status, i.e. the last block for that address.
463     tx_points = store.get_history(addr)
464     if not tx_points:
465         status = None
466     else:
467         lastpoint = tx_points[-1]
468         status = lastpoint['blk_hash']
469         # this is a temporary hack; move it up once old clients have disappeared
470         if status == 'mempool': # and session['version'] != "old":
471             status = status + ':%d'% len(tx_points)
472     return status
473
474
475 def send_numblocks(session_id):
476     message_id = sessions_sub_numblocks[session_id]
477     out = json.dumps( {'id':message_id, 'result':block_number} )
478     output_queue.put((session_id, out))
479
480 def send_status(session_id, message_id, address, status):
481     out = json.dumps( { 'id':message_id, 'result':status } )
482     output_queue.put((session_id, out))
483
484 def subscribe_to_numblocks(session_id, message_id):
485     sessions_sub_numblocks[session_id] = message_id
486     send_numblocks(session_id)
487
488 def subscribe_to_address(session_id, message_id, address):
489     status = get_address_status(address)
490     sessions[session_id]['addresses'][address] = (message_id, status)
491     sessions[session_id]['last_time'] = time.time()
492     send_status(session_id, message_id, address, status)
493
494 def add_address_to_session(session_id, address):
495     status = get_address_status(address)
496     sessions[session_id]['addresses'][addr] = status
497     sessions[session_id]['last_time'] = time.time()
498     return status
499
500 def new_session(version, addresses):
501     session_id = random_string(10)
502     sessions[session_id] = { 'addresses':{}, 'version':version }
503     for a in addresses:
504         sessions[session_id]['addresses'][a] = ''
505     out = repr( (session_id, config.get('server','banner').replace('\\n','\n') ) )
506     sessions[session_id]['last_time'] = time.time()
507     return out
508
509 def update_session(session_id,addresses):
510     sessions[session_id]['addresses'] = {}
511     for a in addresses:
512         sessions[session_id]['addresses'][a] = ''
513     sessions[session_id]['last_time'] = time.time()
514     return 'ok'
515
516 def native_server_thread():
517     s = socket.socket(socket.AF_INET, socket.SOCK_STREAM)
518     s.setsockopt(socket.SOL_SOCKET, socket.SO_REUSEADDR, 1)
519     s.bind((config.get('server','host'), config.getint('server','port')))
520     s.listen(1)
521     while not stopping:
522         conn, addr = s.accept()
523         try:
524             thread.start_new_thread(native_client_thread, (addr, conn,))
525         except:
526             # can't start new thread if there is no memory..
527             traceback.print_exc(file=sys.stdout)
528
529
530 def native_client_thread(ipaddr,conn):
531     #print "client thread", ipaddr
532     try:
533         ipaddr = ipaddr[0]
534         msg = ''
535         while 1:
536             d = conn.recv(1024)
537             msg += d
538             if not d: 
539                 break
540             if '#' in msg:
541                 msg = msg.split('#', 1)[0]
542                 break
543         try:
544             cmd, data = ast.literal_eval(msg)
545         except:
546             print "syntax error", repr(msg), ipaddr
547             conn.close()
548             return
549
550         out = do_command(cmd, data, ipaddr)
551         if out:
552             #print ipaddr, cmd, len(out)
553             try:
554                 conn.send(out)
555             except:
556                 print "error, could not send"
557
558     finally:
559         conn.close()
560
561
562 def timestr():
563     return time.strftime("[%d/%m/%Y-%H:%M:%S]")
564
565 # used by the native handler
566 def do_command(cmd, data, ipaddr):
567
568     if cmd=='b':
569         out = "%d"%block_number
570
571     elif cmd in ['session','new_session']:
572         try:
573             if cmd == 'session':
574                 addresses = ast.literal_eval(data)
575                 version = "old"
576             else:
577                 version, addresses = ast.literal_eval(data)
578                 if version[0]=="0": version = "v" + version
579         except:
580             print "error", data
581             return None
582         print timestr(), "new session", ipaddr, addresses[0] if addresses else addresses, len(addresses), version
583         out = new_session(version, addresses)
584
585     elif cmd=='address.subscribe':
586         try:
587             session_id, addr = ast.literal_eval(data)
588         except:
589             print "error"
590             return None
591         return add_address_to_session(session_id,addr)
592
593     elif cmd=='update_session':
594         try:
595             session_id, addresses = ast.literal_eval(data)
596         except:
597             print "error"
598             return None
599         print timestr(), "update session", ipaddr, addresses[0] if addresses else addresses, len(addresses)
600         out = update_session(session_id,addresses)
601
602     elif cmd == 'bccapi_login':
603         import electrum
604         print "data",data
605         v, k = ast.literal_eval(data)
606         master_public_key = k.decode('hex') # todo: sanitize. no need to decode twice...
607         print master_public_key
608         wallet_id = random_string(10)
609         w = Wallet( Direct_Interface() )
610         w.master_public_key = master_public_key.decode('hex')
611         w.synchronize()
612         wallets[wallet_id] = w
613         out = wallet_id
614         print "wallets", wallets
615
616     elif cmd == 'bccapi_getAccountInfo':
617         from wallet import int_to_hex
618         v, wallet_id = ast.literal_eval(data)
619         w = wallets.get(wallet_id)
620         if w is not None:
621             num = len(w.addresses)
622             c, u = w.get_balance()
623             out = int_to_hex(num,4) + int_to_hex(c,8) + int_to_hex( c+u, 8 )
624             out = out.decode('hex')
625         else:
626             print "error",data
627             out = "error"
628
629     elif cmd == 'bccapi_getAccountStatement':
630         from wallet import int_to_hex
631         v, wallet_id = ast.literal_eval(data)
632         w = wallets.get(wallet_id)
633         if w is not None:
634             num = len(w.addresses)
635             c, u = w.get_balance()
636             total_records = num_records = 0
637             out = int_to_hex(num,4) + int_to_hex(c,8) + int_to_hex( c+u, 8 ) + int_to_hex( total_records ) + int_to_hex( num_records )
638             out = out.decode('hex')
639         else:
640             print "error",data
641             out = "error"
642
643     elif cmd == 'bccapi_getSendCoinForm':
644         out = ''
645
646     elif cmd == 'bccapi_submitTransaction':
647         out = ''
648             
649     elif cmd=='poll': 
650         out = poll_session(data)
651
652     elif cmd == 'h': 
653         # history
654         address = data
655         out = repr( store.get_history( address ) )
656
657     elif cmd == 'load': 
658         out = cmd_load(data)
659
660     elif cmd =='tx':
661         out = send_tx(data)
662         print timestr(), "sent tx:", ipaddr, out
663
664     elif cmd == 'stop':
665         out = cmd_stop(data)
666
667     elif cmd == 'peers':
668         out = repr(peer_list.values())
669
670     else:
671         out = None
672
673     return out
674
675
676
677 ####################################################################
678
679 def tcp_server_thread():
680     thread.start_new_thread(process_input_queue, ())
681     thread.start_new_thread(process_output_queue, ())
682
683     s = socket.socket(socket.AF_INET, socket.SOCK_STREAM)
684     s.setsockopt(socket.SOL_SOCKET, socket.SO_REUSEADDR, 1)
685     s.bind((config.get('server','host'), 50001))
686     s.listen(1)
687     while not stopping:
688         conn, addr = s.accept()
689         try:
690             thread.start_new_thread(tcp_client_thread, (addr, conn,))
691         except:
692             # can't start new thread if there is no memory..
693             traceback.print_exc(file=sys.stdout)
694
695
696 def close_session(session_id):
697     print "lost connection", session_id
698     sessions.pop(session_id)
699     if session_id in sessions_sub_numblocks:
700         sessions_sub_numblocks.pop(session_id)
701
702
703 # one thread per client. put requests in a queue.
704 def tcp_client_thread(ipaddr,conn):
705     """ use a persistent connection. put commands in a queue."""
706
707     print timestr(), "TCP session", ipaddr
708     global sessions
709
710     session_id = random_string(10)
711     sessions[session_id] = { 'conn':conn, 'addresses':{}, 'version':'unknown', 'type':'persistent' }
712
713     ipaddr = ipaddr[0]
714     msg = ''
715
716     while not stopping:
717         try:
718             d = conn.recv(1024)
719         except socket.error:
720             d = ''
721         if not d:
722             close_session(session_id)
723             break
724
725         msg += d
726         while True:
727             s = msg.find('\n')
728             if s ==-1:
729                 break
730             else:
731                 c = msg[0:s].strip()
732                 msg = msg[s+1:]
733                 if c == 'quit': 
734                     conn.close()
735                     close_session(session_id)
736                     return
737                 try:
738                     c = json.loads(c)
739                 except:
740                     print "json error", repr(c)
741                     continue
742                 try:
743                     message_id = c.get('id')
744                     method = c.get('method')
745                     params = c.get('params')
746                 except:
747                     print "syntax error", repr(c), ipaddr
748                     continue
749
750                 # add to queue
751                 input_queue.put((session_id, message_id, method, params))
752
753
754
755 # read commands from the input queue. perform requests, etc. this should be called from the main thread.
756 def process_input_queue():
757     while not stopping:
758         session_id, message_id, method, data = input_queue.get()
759         if session_id not in sessions.keys():
760             continue
761         out = None
762         if method == 'address.subscribe':
763             address = data[0]
764             subscribe_to_address(session_id,message_id,address)
765         elif method == 'numblocks.subscribe':
766             subscribe_to_numblocks(session_id,message_id)
767         elif method == 'client.version':
768             sessions[session_id]['version'] = data[0]
769         elif method == 'server.banner':
770             out = { 'result':config.get('server','banner').replace('\\n','\n') } 
771         elif method == 'server.peers':
772             out = { 'result':peer_list.values() } 
773         elif method == 'address.get_history':
774             address = data[0]
775             out = { 'result':store.get_history( address ) } 
776         elif method == 'transaction.broadcast':
777             postdata = dumps({"method": 'importtransaction', 'params': [data], 'id':'jsonrpc'})
778             txo = urllib.urlopen(bitcoind_url, postdata).read()
779             print "sent tx:", txo
780             out = json.loads(txo)
781         else:
782             print "unknown command", method
783         if out:
784             out['id'] = message_id
785             out = json.dumps( out )
786             output_queue.put((session_id, out))
787
788 # this is a separate thread
789 def process_output_queue():
790     while not stopping:
791         session_id, out = output_queue.get()
792         session = sessions.get(session_id)
793         if session: 
794             try:
795                 conn = session.get('conn')
796                 conn.send(out+'\n')
797             except:
798                 close_session(session_id)
799                 
800
801
802
803 ####################################################################
804
805
806 def memorypool_update(store):
807
808     ds = BCDataStream.BCDataStream()
809     previous_transactions = store.mempool_keys
810     store.mempool_keys = []
811
812     postdata = dumps({"method": 'getmemorypool', 'params': [], 'id':'jsonrpc'})
813     respdata = urllib.urlopen(bitcoind_url, postdata).read()
814     r = loads(respdata)
815     if r['error'] != None:
816         return
817
818     v = r['result'].get('transactions')
819     for hextx in v:
820         ds.clear()
821         ds.write(hextx.decode('hex'))
822         tx = deserialize.parse_Transaction(ds)
823         tx['hash'] = util.double_sha256(tx['tx'])
824         tx_hash = store.hashin(tx['hash'])
825
826         store.mempool_keys.append(tx_hash)
827         if store.tx_find_id_and_value(tx):
828             pass
829         else:
830             tx_id = store.import_tx(tx, False)
831             store.update_tx_cache(tx_id)
832
833     store.commit()
834
835
836 def clean_session_thread():
837     while not stopping:
838         time.sleep(30)
839         t = time.time()
840         for k,s in sessions.items():
841             if s.get('type') == 'persistent': continue
842             t0 = s['last_time']
843             if t - t0 > 5*60:
844                 sessions.pop(k)
845                 print "lost session", k
846             
847
848 def irc_thread():
849     global peer_list
850     NICK = 'E_'+random_string(10)
851     while not stopping:
852         try:
853             s = socket.socket()
854             s.connect(('irc.freenode.net', 6667))
855             s.send('USER electrum 0 * :'+config.get('server','host')+' '+config.get('server','ircname')+'\n')
856             s.send('NICK '+NICK+'\n')
857             s.send('JOIN #electrum\n')
858             sf = s.makefile('r', 0)
859             t = 0
860             while not stopping:
861                 line = sf.readline()
862                 line = line.rstrip('\r\n')
863                 line = line.split()
864                 if line[0]=='PING': 
865                     s.send('PONG '+line[1]+'\n')
866                 elif '353' in line: # answer to /names
867                     k = line.index('353')
868                     for item in line[k+1:]:
869                         if item[0:2] == 'E_':
870                             s.send('WHO %s\n'%item)
871                 elif '352' in line: # answer to /who
872                     # warning: this is a horrible hack which apparently works
873                     k = line.index('352')
874                     ip = line[k+4]
875                     ip = socket.gethostbyname(ip)
876                     name = line[k+6]
877                     host = line[k+9]
878                     peer_list[name] = (ip,host)
879                 if time.time() - t > 5*60:
880                     s.send('NAMES #electrum\n')
881                     t = time.time()
882                     peer_list = {}
883         except:
884             traceback.print_exc(file=sys.stdout)
885         finally:
886             sf.close()
887             s.close()
888
889
890
891 def http_server_thread(store):
892     # see http://code.google.com/p/jsonrpclib/
893     from SocketServer import ThreadingMixIn
894     from jsonrpclib.SimpleJSONRPCServer import SimpleJSONRPCServer
895     class SimpleThreadedJSONRPCServer(ThreadingMixIn, SimpleJSONRPCServer): pass
896     server = SimpleThreadedJSONRPCServer(( config.get('server','host'), 8081))
897     server.register_function(lambda : peer_list.values(), 'peers')
898     server.register_function(cmd_stop, 'stop')
899     server.register_function(cmd_load, 'load')
900     server.register_function(lambda : block_number, 'blocks')
901     server.register_function(clear_cache, 'clear_cache')
902     server.register_function(get_cache, 'get_cache')
903     server.register_function(send_tx, 'transaction.broadcast')
904     server.register_function(store.get_history, 'address.get_history')
905     server.register_function(add_address_to_session, 'address.subscribe')
906     server.register_function(new_session, 'session.new')
907     server.register_function(update_session, 'session.update')
908     server.register_function(poll_session, 'session.poll')
909     server.serve_forever()
910
911
912 import traceback
913
914
915 if __name__ == '__main__':
916
917     if len(sys.argv)>1:
918         import jsonrpclib
919         server = jsonrpclib.Server('http://%s:8081'%config.get('server','host'))
920         cmd = sys.argv[1]
921         if cmd == 'load':
922             out = server.load(password)
923         elif cmd == 'peers':
924             out = server.peers()
925         elif cmd == 'stop':
926             out = server.stop(password)
927         elif cmd == 'clear_cache':
928             out = server.clear_cache(password)
929         elif cmd == 'get_cache':
930             out = server.get_cache(password,sys.argv[2])
931         elif cmd == 'h':
932             out = server.address.get_history(sys.argv[2])
933         elif cmd == 'tx':
934             out = server.transaction.broadcast(sys.argv[2])
935         elif cmd == 'b':
936             out = server.blocks()
937         else:
938             out = "Unknown command: '%s'" % cmd
939         print out
940         sys.exit(0)
941
942
943     print "starting Electrum server"
944
945     conf = DataStore.CONFIG_DEFAULTS
946     args, argv = readconf.parse_argv( [], conf)
947     args.dbtype= config.get('database','type')
948     if args.dbtype == 'sqlite3':
949         args.connect_args = { 'database' : config.get('database','database') }
950     elif args.dbtype == 'MySQLdb':
951         args.connect_args = { 'db' : config.get('database','database'), 'user' : config.get('database','username'), 'passwd' : config.get('database','password') }
952     elif args.dbtype == 'psycopg2':
953         args.connect_args = { 'database' : config.get('database','database') }
954     store = MyStore(args)
955     store.tx_cache = {}
956     store.mempool_keys = {}
957
958     # supported protocols
959     thread.start_new_thread(native_server_thread, ())
960     thread.start_new_thread(tcp_server_thread, ())
961     thread.start_new_thread(http_server_thread, (store,))
962
963     thread.start_new_thread(clean_session_thread, ())
964
965     if (config.get('server','irc') == 'yes' ):
966         thread.start_new_thread(irc_thread, ())
967
968     while not stopping:
969         try:
970             dblock.acquire()
971             store.catch_up()
972             memorypool_update(store)
973
974             block_number = store.get_block_number(1)
975             if block_number != old_block_number:
976                 old_block_number = block_number
977                 for session_id in sessions_sub_numblocks.keys():
978                     send_numblocks(session_id)
979
980         except IOError:
981             print "IOError: cannot reach bitcoind"
982             block_number = 0
983         except:
984             traceback.print_exc(file=sys.stdout)
985             block_number = 0
986         finally:
987             dblock.release()
988
989         # do addresses
990         while True:
991             try:
992                 addr = address_queue.get(False)
993             except:
994                 break
995             do_update_address(addr)
996
997         time.sleep(10)
998
999     print "server stopped"
1000