[POWERPC] hugepage BUG fix
authorAdam Litke <agl@us.ibm.com>
Fri, 18 Aug 2006 18:22:21 +0000 (11:22 -0700)
committerPaul Mackerras <paulus@samba.org>
Thu, 24 Aug 2006 00:07:23 +0000 (10:07 +1000)
commitc9169f8747bb282cbe518132bf7d49755a00b6c1
tree1357eb203b7e3c80d6ea2036df664e1a3a401555
parentd55c4a76f26160482158cd43788dcfc96a320a4f
[POWERPC] hugepage BUG fix

On Tue, 2006-08-15 at 08:22 -0700, Dave Hansen wrote:
> kernel BUG in cache_free_debugcheck at mm/slab.c:2748!

Alright, this one is only triggered when slab debugging is enabled.  The
slabs are assumed to be aligned on a HUGEPTE_TABLE_SIZE boundary.  The free
path makes use of this assumption and uses the lowest nibble to pass around
an index into an array of kmem_cache pointers.  With slab debugging turned
on, the slab is still aligned, but the "working" object pointer is not.
This would break the assumption above that a full nibble is available for
the PGF_CACHENUM_MASK.

The following patch reduces PGF_CACHENUM_MASK to cover only the two least
significant bits, which is enough to cover the current number of 4 pgtable
cache types.  Then use this constant to mask out the appropriate part of
the huge pte pointer.

Signed-off-by: Adam Litke <agl@us.ibm.com>
Signed-off-by: Andrew Morton <akpm@osdl.org>
Signed-off-by: Paul Mackerras <paulus@samba.org>
arch/powerpc/mm/hugetlbpage.c
include/asm-powerpc/pgalloc.h