net: speedup udp receive path
authorEric Dumazet <eric.dumazet@gmail.com>
Wed, 28 Apr 2010 21:35:48 +0000 (14:35 -0700)
committerDavid S. Miller <davem@davemloft.net>
Wed, 28 Apr 2010 21:35:48 +0000 (14:35 -0700)
Since commit 95766fff ([UDP]: Add memory accounting.),
each received packet needs one extra sock_lock()/sock_release() pair.

This added latency because of possible backlog handling. Then later,
ticket spinlocks added yet another latency source in case of DDOS.

This patch introduces lock_sock_bh() and unlock_sock_bh()
synchronization primitives, avoiding one atomic operation and backlog
processing.

skb_free_datagram_locked() uses them instead of full blown
lock_sock()/release_sock(). skb is orphaned inside locked section for
proper socket memory reclaim, and finally freed outside of it.

UDP receive path now take the socket spinlock only once.

Signed-off-by: Eric Dumazet <eric.dumazet@gmail.com>
Signed-off-by: David S. Miller <davem@davemloft.net>
include/net/sock.h
net/core/datagram.c
net/ipv4/udp.c
net/ipv6/udp.c

index cf12b1e61fa6062de8e7d421f6dd2404c87d4c05..d361c7769fe0e6287d6ce761f9d7a223df2c3e3b 100644 (file)
@@ -1021,6 +1021,16 @@ extern void release_sock(struct sock *sk);
                                SINGLE_DEPTH_NESTING)
 #define bh_unlock_sock(__sk)   spin_unlock(&((__sk)->sk_lock.slock))
 
+static inline void lock_sock_bh(struct sock *sk)
+{
+       spin_lock_bh(&sk->sk_lock.slock);
+}
+
+static inline void unlock_sock_bh(struct sock *sk)
+{
+       spin_unlock_bh(&sk->sk_lock.slock);
+}
+
 extern struct sock             *sk_alloc(struct net *net, int family,
                                          gfp_t priority,
                                          struct proto *prot);
index 5574a5ddf90829683758be6cb0ef04647f26e232..95b851f3d71380638f9c1415e919becf9db57a22 100644 (file)
@@ -229,9 +229,13 @@ EXPORT_SYMBOL(skb_free_datagram);
 
 void skb_free_datagram_locked(struct sock *sk, struct sk_buff *skb)
 {
-       lock_sock(sk);
-       skb_free_datagram(sk, skb);
-       release_sock(sk);
+       lock_sock_bh(sk);
+       skb_orphan(skb);
+       sk_mem_reclaim_partial(sk);
+       unlock_sock_bh(sk);
+
+       /* skb is now orphaned, might be freed outside of locked section */
+       consume_skb(skb);
 }
 EXPORT_SYMBOL(skb_free_datagram_locked);
 
index 63eb56b2d873e1455b8e7e45c2aaf6b22d8650a9..1f86965ba7d72e146bed86cae4d84240ea7e3f34 100644 (file)
@@ -1062,10 +1062,10 @@ static unsigned int first_packet_length(struct sock *sk)
        spin_unlock_bh(&rcvq->lock);
 
        if (!skb_queue_empty(&list_kill)) {
-               lock_sock(sk);
+               lock_sock_bh(sk);
                __skb_queue_purge(&list_kill);
                sk_mem_reclaim_partial(sk);
-               release_sock(sk);
+               unlock_sock_bh(sk);
        }
        return res;
 }
@@ -1196,10 +1196,10 @@ out:
        return err;
 
 csum_copy_err:
-       lock_sock(sk);
+       lock_sock_bh(sk);
        if (!skb_kill_datagram(sk, skb, flags))
                UDP_INC_STATS_USER(sock_net(sk), UDP_MIB_INERRORS, is_udplite);
-       release_sock(sk);
+       unlock_sock_bh(sk);
 
        if (noblock)
                return -EAGAIN;
@@ -1624,9 +1624,9 @@ int udp_rcv(struct sk_buff *skb)
 
 void udp_destroy_sock(struct sock *sk)
 {
-       lock_sock(sk);
+       lock_sock_bh(sk);
        udp_flush_pending_frames(sk);
-       release_sock(sk);
+       unlock_sock_bh(sk);
 }
 
 /*
index 3ead20ad9d07b69a74ca1029bad44132079d2194..91c60f0090a4734dd1dfa1b2995d229d44d2a4b4 100644 (file)
@@ -424,7 +424,7 @@ out:
        return err;
 
 csum_copy_err:
-       lock_sock(sk);
+       lock_sock_bh(sk);
        if (!skb_kill_datagram(sk, skb, flags)) {
                if (is_udp4)
                        UDP_INC_STATS_USER(sock_net(sk),
@@ -433,7 +433,7 @@ csum_copy_err:
                        UDP6_INC_STATS_USER(sock_net(sk),
                                        UDP_MIB_INERRORS, is_udplite);
        }
-       release_sock(sk);
+       unlock_sock_bh(sk);
 
        if (flags & MSG_DONTWAIT)
                return -EAGAIN;