check version on all networks, now that litecoin net has switched
[p2pool.git] / p2pool / p2p.py
1 from __future__ import division
2
3 import math
4 import random
5 import sys
6 import time
7
8 from twisted.internet import defer, protocol, reactor
9 from twisted.python import failure, log
10
11 import p2pool
12 from p2pool import data as p2pool_data
13 from p2pool.bitcoin import data as bitcoin_data
14 from p2pool.util import deferral, p2protocol, pack, variable
15
16 class PeerMisbehavingError(Exception):
17     pass
18
19
20 def fragment(f, **kwargs):
21     try:
22         f(**kwargs)
23     except p2protocol.TooLong:
24         fragment(f, **dict((k, v[:len(v)//2]) for k, v in kwargs.iteritems()))
25         fragment(f, **dict((k, v[len(v)//2:]) for k, v in kwargs.iteritems()))
26
27 class Protocol(p2protocol.Protocol):
28     max_remembered_txs_size = 2500000
29     
30     def __init__(self, node, incoming):
31         p2protocol.Protocol.__init__(self, node.net.PREFIX, 1000000, node.traffic_happened)
32         self.node = node
33         self.incoming = incoming
34         
35         self.other_version = None
36         self.connected2 = False
37     
38     def connectionMade(self):
39         self.factory.proto_made_connection(self)
40         
41         self.connection_lost_event = variable.Event()
42         
43         self.addr = self.transport.getPeer().host, self.transport.getPeer().port
44         
45         self.send_version(
46             version=1300,
47             services=0,
48             addr_to=dict(
49                 services=0,
50                 address=self.transport.getPeer().host,
51                 port=self.transport.getPeer().port,
52             ),
53             addr_from=dict(
54                 services=0,
55                 address=self.transport.getHost().host,
56                 port=self.transport.getHost().port,
57             ),
58             nonce=self.node.nonce,
59             sub_version=p2pool.__version__,
60             mode=1,
61             best_share_hash=self.node.best_share_hash_func(),
62         )
63         
64         self.timeout_delayed = reactor.callLater(10, self._connect_timeout)
65         
66         self.get_shares = deferral.GenericDeferrer(
67             max_id=2**256,
68             func=lambda id, hashes, parents, stops: self.send_sharereq(id=id, hashes=hashes, parents=parents, stops=stops),
69             timeout=15,
70             on_timeout=self.disconnect,
71         )
72         
73         self.remote_tx_hashes = set() # view of peer's known_txs # not actually initially empty, but sending txs instead of tx hashes won't hurt
74         self.remote_remembered_txs_size = 0
75         
76         self.remembered_txs = {} # view of peer's mining_txs
77         self.remembered_txs_size = 0
78         self.known_txs_cache = {}
79     
80     def _connect_timeout(self):
81         self.timeout_delayed = None
82         print 'Handshake timed out, disconnecting from %s:%i' % self.addr
83         self.disconnect()
84     
85     def packetReceived(self, command, payload2):
86         try:
87             if command != 'version' and not self.connected2:
88                 raise PeerMisbehavingError('first message was not version message')
89             p2protocol.Protocol.packetReceived(self, command, payload2)
90         except PeerMisbehavingError, e:
91             print 'Peer %s:%i misbehaving, will drop and ban. Reason:' % self.addr, e.message
92             self.badPeerHappened()
93     
94     def badPeerHappened(self):
95         if p2pool.DEBUG:
96             print "Bad peer banned:", self.addr
97         self.disconnect()
98         if self.transport.getPeer().host != '127.0.0.1': # never ban localhost
99             self.node.bans[self.transport.getPeer().host] = time.time() + 60*60
100     
101     def _timeout(self):
102         self.timeout_delayed = None
103         print 'Connection timed out, disconnecting from %s:%i' % self.addr
104         self.disconnect()
105     
106     message_version = pack.ComposedType([
107         ('version', pack.IntType(32)),
108         ('services', pack.IntType(64)),
109         ('addr_to', bitcoin_data.address_type),
110         ('addr_from', bitcoin_data.address_type),
111         ('nonce', pack.IntType(64)),
112         ('sub_version', pack.VarStrType()),
113         ('mode', pack.IntType(32)), # always 1 for legacy compatibility
114         ('best_share_hash', pack.PossiblyNoneType(0, pack.IntType(256))),
115     ])
116     def handle_version(self, version, services, addr_to, addr_from, nonce, sub_version, mode, best_share_hash):
117         if self.other_version is not None:
118             raise PeerMisbehavingError('more than one version message')
119         if version < 1300:
120             raise PeerMisbehavingError('peer too old')
121         
122         self.other_version = version
123         self.other_sub_version = sub_version[:512]
124         self.other_services = services
125         
126         if nonce == self.node.nonce:
127             raise PeerMisbehavingError('was connected to self')
128         if nonce in self.node.peers:
129             if p2pool.DEBUG:
130                 print 'Detected duplicate connection, disconnecting from %s:%i' % self.addr
131             self.disconnect()
132             return
133         
134         self.nonce = nonce
135         self.connected2 = True
136         
137         self.timeout_delayed.cancel()
138         self.timeout_delayed = reactor.callLater(100, self._timeout)
139         
140         old_dataReceived = self.dataReceived
141         def new_dataReceived(data):
142             if self.timeout_delayed is not None:
143                 self.timeout_delayed.reset(100)
144             old_dataReceived(data)
145         self.dataReceived = new_dataReceived
146         
147         self.factory.proto_connected(self)
148         
149         self._stop_thread = deferral.run_repeatedly(lambda: [
150             self.send_ping(),
151         random.expovariate(1/100)][-1])
152         
153         self._stop_thread2 = deferral.run_repeatedly(lambda: [
154             self.send_addrme(port=self.node.serverfactory.listen_port.getHost().port) if self.node.serverfactory.listen_port is not None else None,
155         random.expovariate(1/(100*len(self.node.peers) + 1))][-1])
156         
157         if best_share_hash is not None:
158             self.node.handle_share_hashes([best_share_hash], self)
159         
160         def update_remote_view_of_my_known_txs(before, after):
161             added = set(after) - set(before)
162             removed = set(before) - set(after)
163             if added:
164                 self.send_have_tx(tx_hashes=list(added))
165             if removed:
166                 self.send_losing_tx(tx_hashes=list(removed))
167                 
168                 # cache forgotten txs here for a little while so latency of "losing_tx" packets doesn't cause problems
169                 key = max(self.known_txs_cache) + 1 if self.known_txs_cache else 0
170                 self.known_txs_cache[key] = dict((h, before[h]) for h in removed)
171                 reactor.callLater(20, self.known_txs_cache.pop, key)
172         watch_id = self.node.known_txs_var.transitioned.watch(update_remote_view_of_my_known_txs)
173         self.connection_lost_event.watch(lambda: self.node.known_txs_var.transitioned.unwatch(watch_id))
174         
175         self.send_have_tx(tx_hashes=self.node.known_txs_var.value.keys())
176         
177         def update_remote_view_of_my_mining_txs(before, after):
178             added = set(after) - set(before)
179             removed = set(before) - set(after)
180             if added:
181                 self.remote_remembered_txs_size += sum(100 + bitcoin_data.tx_type.packed_size(after[x]) for x in added)
182                 assert self.remote_remembered_txs_size <= self.max_remembered_txs_size
183                 fragment(self.send_remember_tx, tx_hashes=[x for x in added if x in self.remote_tx_hashes], txs=[after[x] for x in added if x not in self.remote_tx_hashes])
184             if removed:
185                 self.send_forget_tx(tx_hashes=list(removed))
186                 self.remote_remembered_txs_size -= sum(100 + bitcoin_data.tx_type.packed_size(before[x]) for x in removed)
187         watch_id2 = self.node.mining_txs_var.transitioned.watch(update_remote_view_of_my_mining_txs)
188         self.connection_lost_event.watch(lambda: self.node.mining_txs_var.transitioned.unwatch(watch_id2))
189         
190         self.remote_remembered_txs_size += sum(100 + bitcoin_data.tx_type.packed_size(x) for x in self.node.mining_txs_var.value.values())
191         assert self.remote_remembered_txs_size <= self.max_remembered_txs_size
192         fragment(self.send_remember_tx, tx_hashes=[], txs=self.node.mining_txs_var.value.values())
193     
194     message_ping = pack.ComposedType([])
195     def handle_ping(self):
196         pass
197     
198     message_addrme = pack.ComposedType([
199         ('port', pack.IntType(16)),
200     ])
201     def handle_addrme(self, port):
202         host = self.transport.getPeer().host
203         #print 'addrme from', host, port
204         if host == '127.0.0.1':
205             if random.random() < .8 and self.node.peers:
206                 random.choice(self.node.peers.values()).send_addrme(port=port) # services...
207         else:
208             self.node.got_addr((self.transport.getPeer().host, port), self.other_services, int(time.time()))
209             if random.random() < .8 and self.node.peers:
210                 random.choice(self.node.peers.values()).send_addrs(addrs=[
211                     dict(
212                         address=dict(
213                             services=self.other_services,
214                             address=host,
215                             port=port,
216                         ),
217                         timestamp=int(time.time()),
218                     ),
219                 ])
220     
221     message_addrs = pack.ComposedType([
222         ('addrs', pack.ListType(pack.ComposedType([
223             ('timestamp', pack.IntType(64)),
224             ('address', bitcoin_data.address_type),
225         ]))),
226     ])
227     def handle_addrs(self, addrs):
228         for addr_record in addrs:
229             self.node.got_addr((addr_record['address']['address'], addr_record['address']['port']), addr_record['address']['services'], min(int(time.time()), addr_record['timestamp']))
230             if random.random() < .8 and self.node.peers:
231                 random.choice(self.node.peers.values()).send_addrs(addrs=[addr_record])
232     
233     message_getaddrs = pack.ComposedType([
234         ('count', pack.IntType(32)),
235     ])
236     def handle_getaddrs(self, count):
237         if count > 100:
238             count = 100
239         self.send_addrs(addrs=[
240             dict(
241                 timestamp=int(self.node.addr_store[host, port][2]),
242                 address=dict(
243                     services=self.node.addr_store[host, port][0],
244                     address=host,
245                     port=port,
246                 ),
247             ) for host, port in
248             self.node.get_good_peers(count)
249         ])
250     
251     message_shares = pack.ComposedType([
252         ('shares', pack.ListType(p2pool_data.share_type)),
253     ])
254     def handle_shares(self, shares):
255         result = []
256         for wrappedshare in shares:
257             if wrappedshare['type'] < 9: continue
258             share = p2pool_data.load_share(wrappedshare, self.node.net, self.addr)
259             if wrappedshare['type'] >= 13:
260                 txs = []
261                 for tx_hash in share.share_info['new_transaction_hashes']:
262                     if tx_hash in self.node.known_txs_var.value:
263                         tx = self.node.known_txs_var.value[tx_hash]
264                     else:
265                         for cache in self.known_txs_cache.itervalues():
266                             if tx_hash in cache:
267                                 tx = cache[tx_hash]
268                                 print 'Transaction %064x rescued from peer latency cache!' % (tx_hash,)
269                                 break
270                         else:
271                             print >>sys.stderr, 'Peer referenced unknown transaction %064x, disconnecting' % (tx_hash,)
272                             self.disconnect()
273                             return
274                     txs.append(tx)
275             else:
276                 txs = None
277             
278             result.append((share, txs))
279             
280         self.node.handle_shares(result, self)
281     
282     def sendShares(self, shares, tracker, known_txs, include_txs_with=[]):
283         tx_hashes = set()
284         for share in shares:
285             if share.VERSION >= 13:
286                 # send full transaction for every new_transaction_hash that peer does not know
287                 for tx_hash in share.share_info['new_transaction_hashes']:
288                     assert tx_hash in known_txs, 'tried to broadcast share without knowing all its new transactions'
289                     if tx_hash not in self.remote_tx_hashes:
290                         tx_hashes.add(tx_hash)
291                 continue
292             if share.hash in include_txs_with:
293                 x = share.get_other_tx_hashes(tracker)
294                 if x is not None:
295                     tx_hashes.update(x)
296         
297         hashes_to_send = [x for x in tx_hashes if x not in self.node.mining_txs_var.value and x in known_txs]
298         
299         new_remote_remembered_txs_size = self.remote_remembered_txs_size + sum(100 + bitcoin_data.tx_type.packed_size(known_txs[x]) for x in hashes_to_send)
300         if new_remote_remembered_txs_size > self.max_remembered_txs_size:
301             raise ValueError('shares have too many txs')
302         self.remote_remembered_txs_size = new_remote_remembered_txs_size
303         
304         fragment(self.send_remember_tx, tx_hashes=[x for x in hashes_to_send if x in self.remote_tx_hashes], txs=[known_txs[x] for x in hashes_to_send if x not in self.remote_tx_hashes])
305         
306         fragment(self.send_shares, shares=[share.as_share() for share in shares])
307         
308         self.send_forget_tx(tx_hashes=hashes_to_send)
309         
310         self.remote_remembered_txs_size -= sum(100 + bitcoin_data.tx_type.packed_size(known_txs[x]) for x in hashes_to_send)
311     
312     
313     message_sharereq = pack.ComposedType([
314         ('id', pack.IntType(256)),
315         ('hashes', pack.ListType(pack.IntType(256))),
316         ('parents', pack.VarIntType()),
317         ('stops', pack.ListType(pack.IntType(256))),
318     ])
319     def handle_sharereq(self, id, hashes, parents, stops):
320         shares = self.node.handle_get_shares(hashes, parents, stops, self)
321         try:
322             self.send_sharereply(id=id, result='good', shares=[share.as_share() for share in shares])
323         except p2protocol.TooLong:
324             self.send_sharereply(id=id, result='too long', shares=[])
325     
326     message_sharereply = pack.ComposedType([
327         ('id', pack.IntType(256)),
328         ('result', pack.EnumType(pack.VarIntType(), {0: 'good', 1: 'too long', 2: 'unk2', 3: 'unk3', 4: 'unk4', 5: 'unk5', 6: 'unk6'})),
329         ('shares', pack.ListType(p2pool_data.share_type)),
330     ])
331     def handle_sharereply(self, id, result, shares):
332         if result == 'good':
333             res = [p2pool_data.load_share(share, self.node.net, self.addr) for share in shares if share['type'] >= 9]
334         else:
335             res = failure.Failure("sharereply result: " + result)
336         self.get_shares.got_response(id, res)
337     
338     
339     message_bestblock = pack.ComposedType([
340         ('header', bitcoin_data.block_header_type),
341     ])
342     def handle_bestblock(self, header):
343         self.node.handle_bestblock(header, self)
344     
345     
346     message_have_tx = pack.ComposedType([
347         ('tx_hashes', pack.ListType(pack.IntType(256))),
348     ])
349     def handle_have_tx(self, tx_hashes):
350         #assert self.remote_tx_hashes.isdisjoint(tx_hashes)
351         self.remote_tx_hashes.update(tx_hashes)
352         while len(self.remote_tx_hashes) > 10000:
353             self.remote_tx_hashes.pop()
354     message_losing_tx = pack.ComposedType([
355         ('tx_hashes', pack.ListType(pack.IntType(256))),
356     ])
357     def handle_losing_tx(self, tx_hashes):
358         #assert self.remote_tx_hashes.issuperset(tx_hashes)
359         self.remote_tx_hashes.difference_update(tx_hashes)
360     
361     
362     message_remember_tx = pack.ComposedType([
363         ('tx_hashes', pack.ListType(pack.IntType(256))),
364         ('txs', pack.ListType(bitcoin_data.tx_type)),
365     ])
366     def handle_remember_tx(self, tx_hashes, txs):
367         for tx_hash in tx_hashes:
368             if tx_hash in self.remembered_txs:
369                 print >>sys.stderr, 'Peer referenced transaction twice, disconnecting'
370                 self.disconnect()
371                 return
372             
373             if tx_hash in self.node.known_txs_var.value:
374                 tx = self.node.known_txs_var.value[tx_hash]
375             else:
376                 for cache in self.known_txs_cache.itervalues():
377                     if tx_hash in cache:
378                         tx = cache[tx_hash]
379                         print 'Transaction %064x rescued from peer latency cache!' % (tx_hash,)
380                         break
381                 else:
382                     print >>sys.stderr, 'Peer referenced unknown transaction %064x, disconnecting' % (tx_hash,)
383                     self.disconnect()
384                     return
385             
386             self.remembered_txs[tx_hash] = tx
387             self.remembered_txs_size += 100 + bitcoin_data.tx_type.packed_size(tx)
388         new_known_txs = dict(self.node.known_txs_var.value)
389         warned = False
390         for tx in txs:
391             tx_hash = bitcoin_data.hash256(bitcoin_data.tx_type.pack(tx))
392             if tx_hash in self.remembered_txs:
393                 print >>sys.stderr, 'Peer referenced transaction twice, disconnecting'
394                 self.disconnect()
395                 return
396             
397             if tx_hash in self.node.known_txs_var.value and not warned:
398                 print 'Peer sent entire transaction %064x that was already received' % (tx_hash,)
399                 warned = True
400             
401             self.remembered_txs[tx_hash] = tx
402             self.remembered_txs_size += 100 + bitcoin_data.tx_type.packed_size(tx)
403             new_known_txs[tx_hash] = tx
404         self.node.known_txs_var.set(new_known_txs)
405         if self.remembered_txs_size >= self.max_remembered_txs_size:
406             raise PeerMisbehavingError('too much transaction data stored')
407     message_forget_tx = pack.ComposedType([
408         ('tx_hashes', pack.ListType(pack.IntType(256))),
409     ])
410     def handle_forget_tx(self, tx_hashes):
411         for tx_hash in tx_hashes:
412             self.remembered_txs_size -= 100 + bitcoin_data.tx_type.packed_size(self.remembered_txs[tx_hash])
413             assert self.remembered_txs_size >= 0
414             del self.remembered_txs[tx_hash]
415     
416     
417     def connectionLost(self, reason):
418         self.connection_lost_event.happened()
419         if self.timeout_delayed is not None:
420             self.timeout_delayed.cancel()
421         if self.connected2:
422             self.factory.proto_disconnected(self, reason)
423             self._stop_thread()
424             self._stop_thread2()
425             self.connected2 = False
426         self.factory.proto_lost_connection(self, reason)
427         if p2pool.DEBUG:
428             print "Peer connection lost:", self.addr, reason
429         self.get_shares.respond_all(reason)
430     
431     @defer.inlineCallbacks
432     def do_ping(self):
433         start = reactor.seconds()
434         yield self.get_shares(hashes=[0], parents=0, stops=[])
435         end = reactor.seconds()
436         defer.returnValue(end - start)
437
438 class ServerFactory(protocol.ServerFactory):
439     def __init__(self, node, max_conns):
440         self.node = node
441         self.max_conns = max_conns
442         
443         self.conns = {}
444         self.running = False
445         self.listen_port = None
446     
447     def buildProtocol(self, addr):
448         if sum(self.conns.itervalues()) >= self.max_conns or self.conns.get(self._host_to_ident(addr.host), 0) >= 3:
449             return None
450         if addr.host in self.node.bans and self.node.bans[addr.host] > time.time():
451             return None
452         p = Protocol(self.node, True)
453         p.factory = self
454         if p2pool.DEBUG:
455             print "Got peer connection from:", addr
456         return p
457     
458     def _host_to_ident(self, host):
459         a, b, c, d = host.split('.')
460         return a, b
461     
462     def proto_made_connection(self, proto):
463         ident = self._host_to_ident(proto.transport.getPeer().host)
464         self.conns[ident] = self.conns.get(ident, 0) + 1
465     def proto_lost_connection(self, proto, reason):
466         ident = self._host_to_ident(proto.transport.getPeer().host)
467         self.conns[ident] -= 1
468         if not self.conns[ident]:
469             del self.conns[ident]
470     
471     def proto_connected(self, proto):
472         self.node.got_conn(proto)
473     def proto_disconnected(self, proto, reason):
474         self.node.lost_conn(proto, reason)
475     
476     def start(self):
477         assert not self.running
478         self.running = True
479         
480         def attempt_listen():
481             if self.running:
482                 self.listen_port = reactor.listenTCP(self.node.port, self)
483         deferral.retry('Error binding to P2P port:', traceback=False)(attempt_listen)()
484     
485     def stop(self):
486         assert self.running
487         self.running = False
488         
489         return self.listen_port.stopListening()
490
491 class ClientFactory(protocol.ClientFactory):
492     def __init__(self, node, desired_conns, max_attempts):
493         self.node = node
494         self.desired_conns = desired_conns
495         self.max_attempts = max_attempts
496         
497         self.attempts = set()
498         self.conns = set()
499         self.running = False
500     
501     def _host_to_ident(self, host):
502         a, b, c, d = host.split('.')
503         return a, b
504     
505     def buildProtocol(self, addr):
506         p = Protocol(self.node, False)
507         p.factory = self
508         return p
509     
510     def startedConnecting(self, connector):
511         ident = self._host_to_ident(connector.getDestination().host)
512         if ident in self.attempts:
513             raise AssertionError('already have attempt')
514         self.attempts.add(ident)
515     
516     def clientConnectionFailed(self, connector, reason):
517         self.attempts.remove(self._host_to_ident(connector.getDestination().host))
518     
519     def clientConnectionLost(self, connector, reason):
520         self.attempts.remove(self._host_to_ident(connector.getDestination().host))
521     
522     def proto_made_connection(self, proto):
523         pass
524     def proto_lost_connection(self, proto, reason):
525         pass
526     
527     def proto_connected(self, proto):
528         self.conns.add(proto)
529         self.node.got_conn(proto)
530     def proto_disconnected(self, proto, reason):
531         self.conns.remove(proto)
532         self.node.lost_conn(proto, reason)
533     
534     def start(self):
535         assert not self.running
536         self.running = True
537         self._stop_thinking = deferral.run_repeatedly(self._think)
538     def stop(self):
539         assert self.running
540         self.running = False
541         self._stop_thinking()
542     
543     def _think(self):
544         try:
545             if len(self.conns) < self.desired_conns and len(self.attempts) < self.max_attempts and self.node.addr_store:
546                 (host, port), = self.node.get_good_peers(1)
547                 
548                 if self._host_to_ident(host) in self.attempts:
549                     pass
550                 elif host in self.node.bans and self.node.bans[host] > time.time():
551                     pass
552                 else:
553                     #print 'Trying to connect to', host, port
554                     reactor.connectTCP(host, port, self, timeout=5)
555         except:
556             log.err()
557         
558         return random.expovariate(1/1)
559
560 class SingleClientFactory(protocol.ReconnectingClientFactory):
561     def __init__(self, node):
562         self.node = node
563     
564     def buildProtocol(self, addr):
565         p = Protocol(self.node, incoming=False)
566         p.factory = self
567         return p
568     
569     def proto_made_connection(self, proto):
570         pass
571     def proto_lost_connection(self, proto, reason):
572         pass
573     
574     def proto_connected(self, proto):
575         self.resetDelay()
576         self.node.got_conn(proto)
577     def proto_disconnected(self, proto, reason):
578         self.node.lost_conn(proto, reason)
579
580 class Node(object):
581     def __init__(self, best_share_hash_func, port, net, addr_store={}, connect_addrs=set(), desired_outgoing_conns=10, max_outgoing_attempts=30, max_incoming_conns=50, preferred_storage=1000, known_txs_var=variable.Variable({}), mining_txs_var=variable.Variable({})):
582         self.best_share_hash_func = best_share_hash_func
583         self.port = port
584         self.net = net
585         self.addr_store = dict(addr_store)
586         self.connect_addrs = connect_addrs
587         self.preferred_storage = preferred_storage
588         self.known_txs_var = known_txs_var
589         self.mining_txs_var = mining_txs_var
590         
591         self.traffic_happened = variable.Event()
592         self.nonce = random.randrange(2**64)
593         self.peers = {}
594         self.bans = {} # address -> end_time
595         self.clientfactory = ClientFactory(self, desired_outgoing_conns, max_outgoing_attempts)
596         self.serverfactory = ServerFactory(self, max_incoming_conns)
597         self.running = False
598     
599     def start(self):
600         if self.running:
601             raise ValueError('already running')
602         
603         self.clientfactory.start()
604         self.serverfactory.start()
605         self.singleclientconnectors = [reactor.connectTCP(addr, port, SingleClientFactory(self)) for addr, port in self.connect_addrs]
606         
607         self.running = True
608         
609         self._stop_thinking = deferral.run_repeatedly(self._think)
610     
611     def _think(self):
612         try:
613             if len(self.addr_store) < self.preferred_storage and self.peers:
614                 random.choice(self.peers.values()).send_getaddrs(count=8)
615         except:
616             log.err()
617         
618         return random.expovariate(1/20)
619     
620     @defer.inlineCallbacks
621     def stop(self):
622         if not self.running:
623             raise ValueError('already stopped')
624         
625         self.running = False
626         
627         self._stop_thinking()
628         yield self.clientfactory.stop()
629         yield self.serverfactory.stop()
630         for singleclientconnector in self.singleclientconnectors:
631             yield singleclientconnector.factory.stopTrying()
632             yield singleclientconnector.disconnect()
633         del self.singleclientconnectors
634     
635     def got_conn(self, conn):
636         if conn.nonce in self.peers:
637             raise ValueError('already have peer')
638         self.peers[conn.nonce] = conn
639         
640         print '%s connection to peer %s:%i established. p2pool version: %i %r' % ('Incoming' if conn.incoming else 'Outgoing', conn.addr[0], conn.addr[1], conn.other_version, conn.other_sub_version)
641     
642     def lost_conn(self, conn, reason):
643         if conn.nonce not in self.peers:
644             raise ValueError('''don't have peer''')
645         if conn is not self.peers[conn.nonce]:
646             raise ValueError('wrong conn')
647         del self.peers[conn.nonce]
648         
649         print 'Lost peer %s:%i - %s' % (conn.addr[0], conn.addr[1], reason.getErrorMessage())
650     
651     
652     def got_addr(self, (host, port), services, timestamp):
653         if (host, port) in self.addr_store:
654             old_services, old_first_seen, old_last_seen = self.addr_store[host, port]
655             self.addr_store[host, port] = services, old_first_seen, max(old_last_seen, timestamp)
656         else:
657             if len(self.addr_store) < 10000:
658                 self.addr_store[host, port] = services, timestamp, timestamp
659     
660     def handle_shares(self, shares, peer):
661         print 'handle_shares', (shares, peer)
662     
663     def handle_share_hashes(self, hashes, peer):
664         print 'handle_share_hashes', (hashes, peer)
665     
666     def handle_get_shares(self, hashes, parents, stops, peer):
667         print 'handle_get_shares', (hashes, parents, stops, peer)
668     
669     def handle_bestblock(self, header, peer):
670         print 'handle_bestblock', header
671     
672     def get_good_peers(self, max_count):
673         t = time.time()
674         return [x[0] for x in sorted(self.addr_store.iteritems(), key=lambda (k, (services, first_seen, last_seen)):
675             -math.log(max(3600, last_seen - first_seen))/math.log(max(3600, t - last_seen))*random.expovariate(1)
676         )][:max_count]