make oldconfig will rebuild these...
[linux-2.4.21-pre4.git] / include / asm-mips64 / checksum.h
1 /*
2  * This file is subject to the terms and conditions of the GNU General Public
3  * License.  See the file "COPYING" in the main directory of this archive
4  * for more details.
5  *
6  * Copyright (C) 1995, 1996, 1997, 1998, 1999 by Ralf Baechle
7  * Copyright (C) 1999 Silicon Graphics, Inc.
8  * Copyright (C) 2001 Thiemo Seufer.
9  * Copyright (C) 2002  Maciej W. Rozycki
10  */
11 #ifndef _ASM_CHECKSUM_H
12 #define _ASM_CHECKSUM_H
13
14 #include <asm/uaccess.h>
15
16 /*
17  * computes the checksum of a memory block at buff, length len,
18  * and adds in "sum" (32-bit)
19  *
20  * returns a 32-bit number suitable for feeding into itself
21  * or csum_tcpudp_magic
22  *
23  * this function must be called with even lengths, except
24  * for the last fragment, which may be odd
25  *
26  * it's best to have buff aligned on a 32-bit boundary
27  */
28 unsigned int csum_partial(const unsigned char *buff, int len, unsigned int sum);
29
30 /*
31  * this is a new version of the above that records errors it finds in *errp,
32  * but continues and zeros the rest of the buffer.
33  */
34 #define csum_partial_copy_nocheck csum_partial_copy
35
36 /*
37  * this is a new version of the above that records errors it finds in *errp,
38  * but continues and zeros the rest of the buffer.
39  */
40 unsigned int csum_partial_copy_from_user(const char *src, char *dst, int len,
41                                          unsigned int sum, int *errp);
42
43 /*
44  * Copy and checksum to user
45  */
46 #define HAVE_CSUM_COPY_USER
47 static inline unsigned int csum_and_copy_to_user (const char *src, char *dst,
48                                                   int len, int sum,
49                                                   int *err_ptr)
50 {
51         sum = csum_partial(src, len, sum);
52
53         if (copy_to_user(dst, src, len)) {
54                 *err_ptr = -EFAULT;
55                 return -1;
56         }
57
58         return sum;
59 }
60
61 /*
62  * the same as csum_partial, but copies from user space (but on MIPS
63  * we have just one address space, so this is identical to the above)
64  *
65  * this is obsolete and will go away.
66  */
67 #define csum_partial_copy_fromuser csum_partial_copy
68 unsigned int csum_partial_copy(const char *src, char *dst, int len,
69                                unsigned int sum);
70
71 /*
72  *      Fold a partial checksum without adding pseudo headers
73  */
74 static inline unsigned short int csum_fold(unsigned int sum)
75 {
76         __asm__(
77         ".set\tnoat\t\t\t# csum_fold\n\t"
78         "sll\t$1,%0,16\n\t"
79         "addu\t%0,$1\n\t"
80         "sltu\t$1,%0,$1\n\t"
81         "srl\t%0,%0,16\n\t"
82         "addu\t%0,$1\n\t"
83         "xori\t%0,0xffff\n\t"
84         ".set\tat"
85         : "=r" (sum)
86         : "0" (sum));
87
88         return sum;
89 }
90
91 /*
92  *      This is a version of ip_compute_csum() optimized for IP headers,
93  *      which always checksum on 4 octet boundaries.
94  *
95  *      By Jorge Cwik <jorge@laser.satlink.net>, adapted for linux by
96  *      Arnt Gulbrandsen.
97  */
98 static inline unsigned short ip_fast_csum(unsigned char *iph,
99                                           unsigned int ihl)
100 {
101         unsigned int sum;
102         unsigned long dummy;
103
104         /*
105          * This is for 32-bit processors ...  but works just fine for 64-bit
106          * processors for now ...  XXX
107          */
108         __asm__ __volatile__(
109         ".set\tnoreorder\t\t\t# ip_fast_csum\n\t"
110         ".set\tnoat\n\t"
111         "lw\t%0, (%1)\n\t"
112         "subu\t%2, 4\n\t"
113         "dsll\t%2, 2\n\t"
114         "lw\t%3, 4(%1)\n\t"
115         "daddu\t%2, %1\n\t"
116         "addu\t%0, %3\n\t"
117         "sltu\t$1, %0, %3\n\t"
118         "lw\t%3, 8(%1)\n\t"
119         "addu\t%0, $1\n\t"
120         "addu\t%0, %3\n\t"
121         "sltu\t$1, %0, %3\n\t"
122         "lw\t%3, 12(%1)\n\t"
123         "addu\t%0, $1\n\t"
124         "addu\t%0, %3\n\t"
125         "sltu\t$1, %0, %3\n\t"
126         "addu\t%0, $1\n"
127
128         "1:\tlw\t%3, 16(%1)\n\t"
129         "daddiu\t%1, 4\n"
130         "addu\t%0, %3\n\t"
131         "sltu\t$1, %0, %3\n\t"
132         "bne\t%2, %1, 1b\n\t"
133         " addu\t%0, $1\n"
134
135         "2:\t.set\tat\n\t"
136         ".set\treorder"
137         : "=&r" (sum), "=&r" (iph), "=&r" (ihl), "=&r" (dummy)
138         : "1" (iph), "2" (ihl));
139
140         return csum_fold(sum);
141 }
142
143 /*
144  * computes the checksum of the TCP/UDP pseudo-header
145  * returns a 16-bit checksum, already complemented
146  *
147  * Cast unsigned short expressions to unsigned long explicitly
148  * to avoid surprises resulting from implicit promotions to
149  * signed int.  --macro
150  */
151 static inline unsigned long csum_tcpudp_nofold(unsigned long saddr,
152                                                unsigned long daddr,
153                                                unsigned short len,
154                                                unsigned short proto,
155                                                unsigned int sum)
156 {
157         __asm__(
158         ".set\tnoat\t\t\t# csum_tcpudp_nofold\n\t"
159         "daddu\t%0, %2\n\t"
160         "daddu\t%0, %3\n\t"
161         "daddu\t%0, %4\n\t"
162         "dsll32\t$1, %0, 0\n\t"
163         "daddu\t%0, $1\n\t"
164         "dsrl32\t%0, %0, 0\n\t"
165         ".set\tat"
166         : "=&r" (sum)
167         : "0" (daddr), "r"(saddr),
168 #ifdef __MIPSEL__
169           "r" (((unsigned long)ntohs(len)<<16)+proto*256),
170 #else
171           "r" (((unsigned long)(proto)<<16)+len),
172 #endif
173           "r" (sum));
174
175         return sum;
176 }
177
178 /*
179  * computes the checksum of the TCP/UDP pseudo-header
180  * returns a 16-bit checksum, already complemented
181  */
182 static inline unsigned short int csum_tcpudp_magic(unsigned long saddr,
183                                                    unsigned long daddr,
184                                                    unsigned short len,
185                                                    unsigned short proto,
186                                                    unsigned int sum)
187 {
188         return csum_fold(csum_tcpudp_nofold(saddr, daddr, len, proto, sum));
189 }
190
191 /*
192  * this routine is used for miscellaneous IP-like checksums, mainly
193  * in icmp.c
194  */
195 static inline unsigned short ip_compute_csum(unsigned char * buff, int len)
196 {
197         return csum_fold(csum_partial(buff, len, 0));
198 }
199
200 #define _HAVE_ARCH_IPV6_CSUM
201 static __inline__ unsigned short int csum_ipv6_magic(struct in6_addr *saddr,
202                                                      struct in6_addr *daddr,
203                                                      __u32 len,
204                                                      unsigned short proto,
205                                                      unsigned int sum)
206 {
207         __asm__(
208         ".set\tnoreorder\t\t\t# csum_ipv6_magic\n\t"
209         ".set\tnoat\n\t"
210         "addu\t%0, %5\t\t\t# proto (long in network byte order)\n\t"
211         "sltu\t$1, %0, %5\n\t"
212         "addu\t%0, $1\n\t"
213
214         "addu\t%0, %6\t\t\t# csum\n\t"
215         "sltu\t$1, %0, %6\n\t"
216         "lw\t%1, 0(%2)\t\t\t# four words source address\n\t"
217         "addu\t%0, $1\n\t"
218         "addu\t%0, %1\n\t"
219         "sltu\t$1, %0, %1\n\t"
220
221         "lw\t%1, 4(%2)\n\t"
222         "addu\t%0, $1\n\t"
223         "addu\t%0, %1\n\t"
224         "sltu\t$1, %0, %1\n\t"
225
226         "lw\t%1, 8(%2)\n\t"
227         "addu\t%0, $1\n\t"
228         "addu\t%0, %1\n\t"
229         "sltu\t$1, %0, %1\n\t"
230
231         "lw\t%1, 12(%2)\n\t"
232         "addu\t%0, $1\n\t"
233         "addu\t%0, %1\n\t"
234         "sltu\t$1, %0, %1\n\t"
235
236         "lw\t%1, 0(%3)\n\t"
237         "addu\t%0, $1\n\t"
238         "addu\t%0, %1\n\t"
239         "sltu\t$1, %0, %1\n\t"
240
241         "lw\t%1, 4(%3)\n\t"
242         "addu\t%0, $1\n\t"
243         "addu\t%0, %1\n\t"
244         "sltu\t$1, %0, %1\n\t"
245
246         "lw\t%1, 8(%3)\n\t"
247         "addu\t%0, $1\n\t"
248         "addu\t%0, %1\n\t"
249         "sltu\t$1, %0, %1\n\t"
250
251         "lw\t%1, 12(%3)\n\t"
252         "addu\t%0, $1\n\t"
253         "addu\t%0, %1\n\t"
254         "sltu\t$1, %0, %1\n\t"
255
256         "addu\t%0, $1\t\t\t# Add final carry\n\t"
257         ".set\tnoat\n\t"
258         ".set\tnoreorder"
259         : "=&r" (sum), "=&r" (proto)
260         : "r" (saddr), "r" (daddr),
261           "0" (htonl(len)), "1" (htonl(proto)), "r" (sum));
262
263         return csum_fold(sum);
264 }
265
266 #endif /* _ASM_CHECKSUM_H */