Palacios Public Git Repository

To checkout Palacios execute

  git clone http://v3vee.org/palacios/palacios.web/palacios.git
This will give you the master branch. You probably want the devel branch or one of the release branches. To switch to the devel branch, simply execute
  cd palacios
  git checkout --track -b devel origin/devel
The other branches are similar.


*** empty log message ***
[palacios.releases.git] / palacios / src / geekos / kthread.c
1 /*
2  * Kernel threads
3  * Copyright (c) 2001,2003 David H. Hovemeyer <daveho@cs.umd.edu>
4  * $Revision: 1.3 $
5  * 
6  * This is free software.  You are permitted to use,
7  * redistribute, and modify it as specified in the file "COPYING".
8  */
9
10 #include <geekos/kassert.h>
11 #include <geekos/defs.h>
12 #include <geekos/screen.h>
13 #include <geekos/int.h>
14 #include <geekos/mem.h>
15 #include <geekos/symbol.h>
16 #include <geekos/string.h>
17 #include <geekos/kthread.h>
18 #include <geekos/malloc.h>
19 #include <geekos/serial.h>
20 #include <geekos/debug.h>
21
22 /* ----------------------------------------------------------------------
23  * Private data
24  * ---------------------------------------------------------------------- */
25
26 /*
27  * List of all threads in the system.
28  */
29 static struct All_Thread_List s_allThreadList;
30
31 /*
32  * Queue of runnable threads.
33  */
34 static struct Thread_Queue s_runQueue;
35
36 /*
37  * Current thread.
38  */
39 struct Kernel_Thread* g_currentThread;
40
41 /*
42  * Boolean flag indicating that we need to choose a new runnable thread.
43  * It is checked by the interrupt return code (Handle_Interrupt,
44  * in lowlevel.asm) before returning from an interrupt.
45  */
46 int g_needReschedule;
47
48 /*
49  * Boolean flag indicating that preemption is disabled.
50  * When set, external interrupts (such as the timer tick)
51  * will not cause a new thread to be selected.
52  */
53 volatile int g_preemptionDisabled;
54
55 /*
56  * Queue of finished threads needing disposal,
57  * and a wait queue used for communication between exited threads
58  * and the reaper thread.
59  */
60 static struct Thread_Queue s_graveyardQueue;
61 static struct Thread_Queue s_reaperWaitQueue;
62
63 /*
64  * Counter for keys that access thread-local data, and an array
65  * of destructors for freeing that data when the thread dies.  This is
66  * based on POSIX threads' thread-specific data functionality.
67  */
68 static unsigned int s_tlocalKeyCounter = 0;
69 static tlocal_destructor_t s_tlocalDestructors[MAX_TLOCAL_KEYS];
70
71 /* ----------------------------------------------------------------------
72  * Private functions
73  * ---------------------------------------------------------------------- */
74
75 /*
76  * Initialize a new Kernel_Thread.
77  */
78 static void Init_Thread(struct Kernel_Thread* kthread, void* stackPage,
79         int priority, bool detached)
80 {
81     static int nextFreePid = 1;
82
83     struct Kernel_Thread* owner = detached ? (struct Kernel_Thread*)0 : g_currentThread;
84
85     memset(kthread, '\0', sizeof(*kthread));
86     kthread->stackPage = stackPage;
87     kthread->esp = ((ulong_t) kthread->stackPage) + PAGE_SIZE;
88     kthread->numTicks = 0;
89     kthread->priority = priority;
90     kthread->userContext = 0;
91     kthread->owner = owner;
92
93     /*
94      * The thread has an implicit self-reference.
95      * If the thread is not detached, then its owner
96      * also has a reference to it.
97      */
98     kthread->refCount = detached ? 1 : 2;
99
100     kthread->alive = true;
101     Clear_Thread_Queue(&kthread->joinQueue);
102     kthread->pid = nextFreePid++;
103
104 }
105
106 /*
107  * Create a new raw thread object.
108  * Returns a null pointer if there isn't enough memory.
109  */
110 static struct Kernel_Thread* Create_Thread(int priority, bool detached)
111 {
112     struct Kernel_Thread* kthread;
113     void* stackPage = 0;
114
115     /*
116      * For now, just allocate one page each for the thread context
117      * object and the thread's stack.
118      */
119     kthread = Alloc_Page();
120     if (kthread != 0)
121         stackPage = Alloc_Page();    
122
123     /* Make sure that the memory allocations succeeded. */
124     if (kthread == 0)
125         return 0;
126     if (stackPage == 0) {
127         Free_Page(kthread);
128         return 0;
129     }
130
131     /*Print("New thread @ %x, stack @ %x\n", kthread, stackPage); */
132
133     /*
134      * Initialize the stack pointer of the new thread
135      * and accounting info
136      */
137     Init_Thread(kthread, stackPage, priority, detached);
138
139     /* Add to the list of all threads in the system. */
140     Add_To_Back_Of_All_Thread_List(&s_allThreadList, kthread);
141
142     return kthread;
143 }
144
145 /*
146  * Push a dword value on the stack of given thread.
147  * We use this to set up some context for the thread before
148  * we make it runnable.
149  */
150 static __inline__ void Push(struct Kernel_Thread* kthread, ulong_t value)
151 {
152     kthread->esp -= 4;
153     *((ulong_t *) kthread->esp) = value;
154 }
155
156 /*
157  * Destroy given thread.
158  * This function should perform all cleanup needed to
159  * reclaim the resources used by a thread.
160  * Called with interrupts enabled.
161  */
162 static void Destroy_Thread(struct Kernel_Thread* kthread)
163 {
164
165     /* Dispose of the thread's memory. */
166     Disable_Interrupts();
167     Free_Page(kthread->stackPage);
168     Free_Page(kthread);
169
170     /* Remove from list of all threads */
171     Remove_From_All_Thread_List(&s_allThreadList, kthread);
172
173     Enable_Interrupts();
174
175 }
176
177 /*
178  * Hand given thread to the reaper for destruction.
179  * Must be called with interrupts disabled!
180  */
181 static void Reap_Thread(struct Kernel_Thread* kthread)
182 {
183     KASSERT(!Interrupts_Enabled());
184     Enqueue_Thread(&s_graveyardQueue, kthread);
185     Wake_Up(&s_reaperWaitQueue);
186 }
187
188 /*
189  * Called when a reference to the thread is broken.
190  */
191 static void Detach_Thread(struct Kernel_Thread* kthread)
192 {
193     KASSERT(!Interrupts_Enabled());
194     KASSERT(kthread->refCount > 0);
195
196     --kthread->refCount;
197     if (kthread->refCount == 0) {
198         Reap_Thread(kthread);
199     }
200 }
201
202 /*
203  * This function performs any needed initialization before
204  * a thread start function is executed.  Currently we just use
205  * it to enable interrupts (since Schedule() always activates
206  * a thread with interrupts disabled).
207  */
208 static void Launch_Thread(void)
209 {
210     Enable_Interrupts();
211 }
212
213 /*
214  * Push initial values for general purpose registers.
215  */
216 static void Push_General_Registers(struct Kernel_Thread* kthread)
217 {
218     /*
219      * Push initial values for saved general-purpose registers.
220      * (The actual values are not important.)
221      */
222     Push(kthread, 0);  /* eax */
223     Push(kthread, 0);  /* ebx */
224     Push(kthread, 0);  /* edx */
225     Push(kthread, 0);  /* edx */
226     Push(kthread, 0);  /* esi */
227     Push(kthread, 0);  /* edi */
228     Push(kthread, 0);  /* ebp */
229 }
230
231 /*
232  * Shutdown a kernel thread.
233  * This is called if a kernel thread exits by falling off
234  * the end of its start function.
235  */
236 static void Shutdown_Thread(void)
237 {
238     Exit(0);
239 }
240
241 /*
242  * Set up the initial context for a kernel-mode-only thread.
243  */
244 static void Setup_Kernel_Thread(
245     struct Kernel_Thread* kthread,
246     Thread_Start_Func startFunc,
247     ulong_t arg)
248 {
249     /*
250      * Push the argument to the thread start function, and the
251      * return address (the Shutdown_Thread function, so the thread will
252      * go away cleanly when the start function returns).
253      */
254     Push(kthread, arg);
255     Push(kthread, (ulong_t) &Shutdown_Thread);
256
257     /* Push the address of the start function. */
258     Push(kthread, (ulong_t) startFunc);
259
260     /*
261      * To make the thread schedulable, we need to make it look
262      * like it was suspended by an interrupt.  This means pushing
263      * an "eflags, cs, eip" sequence onto the stack,
264      * as well as int num, error code, saved registers, etc.
265      */
266
267     /*
268      * The EFLAGS register will have all bits clear.
269      * The important constraint is that we want to have the IF
270      * bit clear, so that interrupts are disabled when the
271      * thread starts.
272      */
273     Push(kthread, 0UL);  /* EFLAGS */
274
275     /*
276      * As the "return address" specifying where the new thread will
277      * start executing, use the Launch_Thread() function.
278      */
279     Push(kthread, KERNEL_CS);
280     Push(kthread, (ulong_t) &Launch_Thread);
281
282     /* Push fake error code and interrupt number. */
283     Push(kthread, 0);
284     Push(kthread, 0);
285
286     /* Push initial values for general-purpose registers. */
287     Push_General_Registers(kthread);
288
289     /*
290      * Push values for saved segment registers.
291      * Only the ds and es registers will contain valid selectors.
292      * The fs and gs registers are not used by any instruction
293      * generated by gcc.
294      */
295     Push(kthread, KERNEL_DS);  /* ds */
296     Push(kthread, KERNEL_DS);  /* es */
297     Push(kthread, 0);  /* fs */
298     Push(kthread, 0);  /* gs */
299 }
300
301
302
303 /*
304  * This is the body of the idle thread.  Its job is to preserve
305  * the invariant that a runnable thread always exists,
306  * i.e., the run queue is never empty.
307  */
308 static void Idle(ulong_t arg)
309 {
310     while (true)
311         Yield();
312 }
313
314 /*
315  * The reaper thread.  Its job is to de-allocate memory
316  * used by threads which have finished.
317  */
318 static void Reaper(ulong_t arg)
319 {
320     struct Kernel_Thread *kthread;
321
322     Disable_Interrupts();
323
324     while (true) {
325         /* See if there are any threads needing disposal. */
326         if ((kthread = s_graveyardQueue.head) == 0) {
327             /* Graveyard is empty, so wait for a thread to die. */
328             Wait(&s_reaperWaitQueue);
329         }
330         else {
331             /* Make the graveyard queue empty. */
332             Clear_Thread_Queue(&s_graveyardQueue);
333
334             /*
335              * Now we can re-enable interrupts, since we
336              * have removed all the threads needing disposal.
337              */
338             Enable_Interrupts();
339             Yield();   /* allow other threads to run? */
340
341             /* Dispose of the dead threads. */
342             while (kthread != 0) {
343                 struct Kernel_Thread* next = Get_Next_In_Thread_Queue(kthread);
344 #if 0
345                 Print("Reaper: disposing of thread @ %x, stack @ %x\n",
346                     kthread, kthread->stackPage);
347 #endif
348                 Destroy_Thread(kthread);
349                 kthread = next;
350             }
351
352             /*
353              * Disable interrupts again, since we're going to
354              * do another iteration.
355              */
356             Disable_Interrupts();
357         }
358     }
359 }
360
361 /*
362  * Find the best (highest priority) thread in given
363  * thread queue.  Returns null if queue is empty.
364  */
365 static __inline__ struct Kernel_Thread* Find_Best(struct Thread_Queue* queue)
366 {
367     /* Pick the highest priority thread */
368     struct Kernel_Thread *kthread = queue->head, *best = 0;
369     while (kthread != 0) {
370         if (best == 0 || kthread->priority > best->priority)
371             best = kthread;
372         kthread = Get_Next_In_Thread_Queue(kthread);
373     }
374     return best;
375 }
376
377 /*
378  * Acquires pointer to thread-local data from the current thread
379  * indexed by the given key.  Assumes interrupts are off.
380  */
381 static __inline__ const void** Get_Tlocal_Pointer(tlocal_key_t k) 
382 {
383     struct Kernel_Thread* current = g_currentThread;
384
385     KASSERT(k < MAX_TLOCAL_KEYS);
386
387     return &current->tlocalData[k];
388 }
389
390 /*
391  * Clean up any thread-local data upon thread exit.  Assumes
392  * this is called with interrupts disabled.  We follow the POSIX style
393  * of possibly invoking a destructor more than once, because a
394  * destructor to some thread-local data might cause other thread-local
395  * data to become alive once again.  If everything is NULL by the end
396  * of an iteration, we are done.
397  */
398 static void Tlocal_Exit(struct Kernel_Thread* curr) {
399     int i, j, called = 0;
400
401     KASSERT(!Interrupts_Enabled());
402
403     for (j = 0; j<MIN_DESTRUCTOR_ITERATIONS; j++) {
404
405         for (i = 0; i<MAX_TLOCAL_KEYS; i++) {
406
407             void *x = (void *)curr->tlocalData[i];
408             if (x != NULL && s_tlocalDestructors[i] != NULL) {
409
410                 curr->tlocalData[i] = NULL;
411                 called = 1;
412
413                 Enable_Interrupts();
414                 s_tlocalDestructors[i](x);
415                 Disable_Interrupts();
416             }
417         }
418         if (!called) break;
419     }
420 }
421
422
423 /* ----------------------------------------------------------------------
424  * Public functions
425  * ---------------------------------------------------------------------- */
426
427 void Init_Scheduler(void)
428 {
429     struct Kernel_Thread* mainThread = (struct Kernel_Thread *) KERNEL_THREAD_OBJECT;
430
431     PrintBoth("Initializing Scheduler\n");
432
433     /*
434      * Create initial kernel thread context object and stack,
435      * and make them current.
436      */
437     Init_Thread(mainThread, (void *) KERNEL_STACK, PRIORITY_NORMAL, true);
438     g_currentThread = mainThread;
439     Add_To_Back_Of_All_Thread_List(&s_allThreadList, mainThread);
440
441     /*
442      * Create the idle thread.
443      */
444     /*Print("starting idle thread\n");*/
445     Start_Kernel_Thread(Idle, 0, PRIORITY_IDLE, true);
446
447     /*
448      * Create the reaper thread.
449      */
450     /*Print("starting reaper thread\n");*/
451     Start_Kernel_Thread(Reaper, 0, PRIORITY_NORMAL, true);
452 }
453
454 /*
455  * Start a kernel-mode-only thread, using given function as its body
456  * and passing given argument as its parameter.  Returns pointer
457  * to the new thread if successful, null otherwise.
458  *
459  * startFunc - is the function to be called by the new thread
460  * arg - is a paramter to pass to the new function
461  * priority - the priority of this thread (use PRIORITY_NORMAL) for
462  *    most things
463  * detached - use false for kernel threads
464  */
465 struct Kernel_Thread* Start_Kernel_Thread(
466     Thread_Start_Func startFunc,
467     ulong_t arg,
468     int priority,
469     bool detached
470 )
471 {
472     struct Kernel_Thread* kthread = Create_Thread(priority, detached);
473     if (kthread != 0) {
474         /*
475          * Create the initial context for the thread to make
476          * it schedulable.
477          */
478         Setup_Kernel_Thread(kthread, startFunc, arg);
479
480
481         /* Atomically put the thread on the run queue. */
482         Make_Runnable_Atomic(kthread);
483     }
484
485     return kthread;
486 }
487
488 /*
489  * Add given thread to the run queue, so that it
490  * may be scheduled.  Must be called with interrupts disabled!
491  */
492 void Make_Runnable(struct Kernel_Thread* kthread)
493 {
494     KASSERT(!Interrupts_Enabled());
495
496     Enqueue_Thread(&s_runQueue, kthread);
497 }
498
499 /*
500  * Atomically make a thread runnable.
501  * Assumes interrupts are currently enabled.
502  */
503 void Make_Runnable_Atomic(struct Kernel_Thread* kthread)
504 {
505     Disable_Interrupts();
506     Make_Runnable(kthread);
507     Enable_Interrupts();
508 }
509
510 /*
511  * Get the thread that currently has the CPU.
512  */
513 struct Kernel_Thread* Get_Current(void)
514 {
515     return g_currentThread;
516 }
517
518 /*
519  * Get the next runnable thread from the run queue.
520  * This is the scheduler.
521  */
522 struct Kernel_Thread* Get_Next_Runnable(void)
523 {
524     struct Kernel_Thread* best = 0;
525
526     best = Find_Best(&s_runQueue);
527     KASSERT(best != 0);
528     Remove_Thread(&s_runQueue, best);
529
530 /*
531  *    Print("Scheduling %x\n", best);
532  */
533     return best;
534 }
535
536 /*
537  * Schedule a thread that is waiting to run.
538  * Must be called with interrupts off!
539  * The current thread should already have been placed
540  * on whatever queue is appropriate (i.e., either the
541  * run queue if it is still runnable, or a wait queue
542  * if it is waiting for an event to occur).
543  */
544 void Schedule(void)
545 {
546     struct Kernel_Thread* runnable;
547
548     /* Make sure interrupts really are disabled */
549     KASSERT(!Interrupts_Enabled());
550
551     /* Preemption should not be disabled. */
552     KASSERT(!g_preemptionDisabled);
553
554     /* Get next thread to run from the run queue */
555     runnable = Get_Next_Runnable();
556
557     /*
558      * Activate the new thread, saving the context of the current thread.
559      * Eventually, this thread will get re-activated and Switch_To_Thread()
560      * will "return", and then Schedule() will return to wherever
561      * it was called from.
562      */
563
564     SerialPrint("Switch_To_Thread() in Schedule()\n");
565     Switch_To_Thread(runnable);
566 }
567
568 /*
569  * Voluntarily give up the CPU to another thread.
570  * Does nothing if no other threads are ready to run.
571  */
572 void Yield(void)
573 {
574     Disable_Interrupts();
575     Make_Runnable(g_currentThread);
576     Schedule();
577     Enable_Interrupts();
578 }
579
580 /*
581  * Exit the current thread.
582  * Calling this function initiates a context switch.
583  */
584 void Exit(int exitCode)
585 {
586     struct Kernel_Thread* current = g_currentThread;
587
588     if (Interrupts_Enabled())
589         Disable_Interrupts();
590
591     /* Thread is dead */
592     current->exitCode = exitCode;
593     current->alive = false;
594
595     /* Clean up any thread-local memory */
596     Tlocal_Exit(g_currentThread);
597
598     /* Notify the thread's owner, if any */
599     Wake_Up(&current->joinQueue);
600
601     /* Remove the thread's implicit reference to itself. */
602     Detach_Thread(g_currentThread);
603
604     /*
605      * Schedule a new thread.
606      * Since the old thread wasn't placed on any
607      * thread queue, it won't get scheduled again.
608      */
609     Schedule();
610
611     /* Shouldn't get here */
612     KASSERT(false);
613     // the build dies on a warning for a 'noreturn' violation
614     // This ensures that this function never returns
615     while(1);
616 }
617
618 /*
619  * Wait for given thread to die.
620  * Interrupts must be enabled.
621  * Returns the thread exit code.
622  */
623 int Join(struct Kernel_Thread* kthread)
624 {
625     int exitCode;
626
627     KASSERT(Interrupts_Enabled());
628
629     /* It is only legal for the owner to join */
630     KASSERT(kthread->owner == g_currentThread);
631
632     Disable_Interrupts();
633
634     /* Wait for it to die */
635     while (kthread->alive) {
636         Wait(&kthread->joinQueue);
637     }
638
639     /* Get thread exit code. */
640     exitCode = kthread->exitCode;
641
642     /* Release our reference to the thread */
643     Detach_Thread(kthread);
644
645     Enable_Interrupts();
646
647     return exitCode;
648 }
649
650 /*
651  * Look up a thread by its process id.
652  * The caller must be the thread's owner.
653  */
654 struct Kernel_Thread* Lookup_Thread(int pid)
655 {
656     struct Kernel_Thread *result = 0;
657
658     bool iflag = Begin_Int_Atomic();
659
660     /*
661      * TODO: we could remove the requirement that the caller
662      * needs to be the thread's owner by specifying that another
663      * reference is added to the thread before it is returned.
664      */
665
666     result = Get_Front_Of_All_Thread_List(&s_allThreadList);
667     while (result != 0) {
668         if (result->pid == pid) {
669             if (g_currentThread != result->owner)
670                 result = 0;
671             break;
672         }
673         result = Get_Next_In_All_Thread_List(result);
674     }
675
676     End_Int_Atomic(iflag);
677
678     return result;
679 }
680
681
682 /*
683  * Wait on given wait queue.
684  * Must be called with interrupts disabled!
685  * Note that the function will return with interrupts
686  * disabled.  This is desirable, because it allows us to
687  * atomically test a condition that can be affected by an interrupt
688  * and wait for it to be satisfied (if necessary).
689  * See the Wait_For_Key() function in keyboard.c
690  * for an example.
691  */
692 void Wait(struct Thread_Queue* waitQueue)
693 {
694     struct Kernel_Thread* current = g_currentThread;
695
696     KASSERT(!Interrupts_Enabled());
697
698     /* Add the thread to the wait queue. */
699     Enqueue_Thread(waitQueue, current);
700
701     /* Find another thread to run. */
702     Schedule();
703 }
704
705 /*
706  * Wake up all threads waiting on given wait queue.
707  * Must be called with interrupts disabled!
708  * See Keyboard_Interrupt_Handler() function in keyboard.c
709  * for an example.
710  */
711 void Wake_Up(struct Thread_Queue* waitQueue)
712 {
713     struct Kernel_Thread *kthread = waitQueue->head, *next;
714
715     KASSERT(!Interrupts_Enabled());
716
717     /*
718      * Walk throught the list of threads in the wait queue,
719      * transferring each one to the run queue.
720      */
721     while (kthread != 0) {
722         next = Get_Next_In_Thread_Queue(kthread);
723         Make_Runnable(kthread);
724         kthread = next;
725     }
726
727     /* The wait queue is now empty. */
728     Clear_Thread_Queue(waitQueue);
729 }
730
731 /*
732  * Wake up a single thread waiting on given wait queue
733  * (if there are any threads waiting).  Chooses the highest priority thread.
734  * Interrupts must be disabled!
735  */
736 void Wake_Up_One(struct Thread_Queue* waitQueue)
737 {
738     struct Kernel_Thread* best;
739
740     KASSERT(!Interrupts_Enabled());
741
742     best = Find_Best(waitQueue);
743
744     if (best != 0) {
745         Remove_Thread(waitQueue, best);
746         Make_Runnable(best);
747         /*Print("Wake_Up_One: waking up %x from %x\n", best, g_currentThread); */
748     }
749 }
750
751 /*
752  * Allocate a key for accessing thread-local data.
753  */
754 int Tlocal_Create(tlocal_key_t *key, tlocal_destructor_t destructor) 
755 {
756     KASSERT(key);
757
758     bool iflag = Begin_Int_Atomic();
759
760     if (s_tlocalKeyCounter == MAX_TLOCAL_KEYS) return -1;
761     s_tlocalDestructors[s_tlocalKeyCounter] = destructor;
762     *key = s_tlocalKeyCounter++;
763
764     End_Int_Atomic(iflag);
765   
766     return 0;
767 }
768
769 /*
770  * Store a value for a thread-local item
771  */
772 void Tlocal_Put(tlocal_key_t k, const void *v) 
773 {
774     const void **pv;
775
776     KASSERT(k < s_tlocalKeyCounter);
777
778     pv = Get_Tlocal_Pointer(k);
779     *pv = v;
780 }
781
782 /*
783  * Acquire a thread-local value
784  */
785 void *Tlocal_Get(tlocal_key_t k) 
786 {
787     const void **pv;
788
789     KASSERT(k < s_tlocalKeyCounter);
790
791     pv = Get_Tlocal_Pointer(k);
792     return (void *)*pv;
793 }
794
795 /*
796  * Print list of all threads in system.
797  * For debugging.
798  */
799 void Dump_All_Thread_List(void)
800 {
801     struct Kernel_Thread *kthread;
802     int count = 0;
803     bool iflag = Begin_Int_Atomic();
804
805     kthread = Get_Front_Of_All_Thread_List(&s_allThreadList);
806
807     Print("[");
808     while (kthread != 0) {
809         ++count;
810         Print("<%lx,%lx,%lx>",
811             (ulong_t) Get_Prev_In_All_Thread_List(kthread),
812             (ulong_t) kthread,
813             (ulong_t) Get_Next_In_All_Thread_List(kthread));
814         KASSERT(kthread != Get_Next_In_All_Thread_List(kthread));
815         kthread = Get_Next_In_All_Thread_List(kthread);
816     }
817     Print("]\n");
818     Print("%d threads are running\n", count);
819
820     End_Int_Atomic(iflag);
821 }