[POWERPC] spufs: fix scheduler starvation by idle contexts
authorJeremy Kerr <jk@ozlabs.org>
Mon, 18 Feb 2008 23:05:35 +0000 (10:05 +1100)
committerJeremy Kerr <jk@ozlabs.org>
Mon, 18 Feb 2008 23:12:02 +0000 (10:12 +1100)
commit4ef110141b3e0758fe30d686417b5686b87eb25b
tree388b52684d98bfc2e8ad443c391edb675eaf5360
parent101142c37be8e5af9b847860219217e6b958c739
[POWERPC] spufs: fix scheduler starvation by idle contexts

2.6.25 has a regression where we can starve the scheduler by creating
(N_SPES+1) contexts, then running them one at a time.

The final context will never be run, as the other contexts are loaded on
the SPEs, none of which are repoted as free (ie, spu->alloc_state !=
SPU_FREE), so spu_get_idle() doesn't give us a spu to run on. Because
all of the contexts are stopped, none are descheduled by the scheduler
tick, as spusched_tick returns if spu_stopped(ctx).

This change replaces the spu_stopped() check with checking for SCHED_IDLE
in ctx->policy. We set a context's policy to SCHED_IDLE when we're not
in spu_run(). We also favour SCHED_IDLE contexts when looking for contexts
to unbind, but leave their timeslice intact for later resumption.

This patch fixes the following test in the spufs-testsuite:
  tests/20-scheduler/02-yield-starvation

Signed-off-by: Jeremy Kerr <jk@ozlabs.org>
arch/powerpc/platforms/cell/spufs/run.c
arch/powerpc/platforms/cell/spufs/sched.c