Palacios Public Git Repository

To checkout Palacios execute

  git clone http://v3vee.org/palacios/palacios.web/palacios.git
This will give you the master branch. You probably want the devel branch or one of the release branches. To switch to the devel branch, simply execute
  cd palacios
  git checkout --track -b devel origin/devel
The other branches are similar.


Corrected timed yield
[palacios.git] / linux_module / palacios-stubs.c
index be06001..eea613b 100644 (file)
@@ -36,17 +36,102 @@ static struct v3_vm_info * irq_to_guest_map[256];
 
 extern unsigned int cpu_khz;
 
+extern int cpu_list[NR_CPUS];
+extern int cpu_list_len;
 
+
+static char *print_buffer[NR_CPUS];
+
+static void deinit_print_buffers(void)
+{
+    int i;
+
+    for (i=0;i<NR_CPUS;i++) {
+       if (print_buffer[i]) { 
+           kfree(print_buffer[i]);
+           print_buffer[i]=0;
+       }
+    }
+}
+
+static int init_print_buffers(void)
+{
+    int i;
+    
+    memset(print_buffer,0,sizeof(char*)*NR_CPUS);
+
+#if !V3_PRINTK_OLD_STYLE_OUTPUT
+
+    for (i=0;i<NR_CPUS;i++) { 
+       print_buffer[i] = kmalloc(V3_PRINTK_BUF_SIZE,GFP_KERNEL);
+       if (!print_buffer[i]) { 
+           ERROR("Cannot allocate print buffer for cpu %d\n",i);
+           deinit_print_buffers();
+           return -1;
+       }
+       memset(print_buffer[i],0,V3_PRINTK_BUF_SIZE);
+    }
+
+#endif
+    
+    return 0;
+
+}
 /**
  * Prints a message to the console.
  */
-static void palacios_print(const char *        fmt, ...) {
+void palacios_print(const char *fmt, ...) {
+
+#if V3_PRINTK_OLD_STYLE_OUTPUT
+
   va_list ap;
+
   va_start(ap, fmt);
   vprintk(fmt, ap);
   va_end(ap);
-  
+
+  return
+
+#else 
+
+  va_list ap;
+  char *buf;
+  unsigned int cpu = palacios_get_cpu();
+
+  buf = print_buffer[cpu];
+
+  if (!buf) { 
+      printk(KERN_INFO "palacios (pcore %u): output skipped - no allocated buffer\n",cpu);
+      return;
+  } 
+
+  va_start(ap, fmt);
+  vsnprintf(buf,V3_PRINTK_BUF_SIZE, fmt, ap);
+  va_end(ap);
+
+#if V3_PRINTK_CHECK_7BIT
+  {
+      char c=0;
+      int i;
+      for (i=0;i<strlen(buf);i++) { 
+         if (buf[i] < 0) {
+             c=buf[i];
+             break;
+         }
+      }
+      if (c!=0) { 
+         printk(KERN_INFO "palacios (pcore %u): ALERT - 8 BIT CHAR (c=%d) DETECTED\n", cpu,c);
+      }
+  }
+#endif
+
+  printk(KERN_INFO "palacios (pcore %u): %s",cpu,buf);
+
   return;
+
+#endif
+
 }
 
 
@@ -55,7 +140,7 @@ static void palacios_print(const char *      fmt, ...) {
  * Allocates a contiguous region of pages of the requested size.
  * Returns the physical address of the first page in the region.
  */
-static void * palacios_allocate_pages(int num_pages, unsigned int alignment) {
+void *palacios_allocate_pages(int num_pages, unsigned int alignment) {
     void * pg_addr = NULL;
 
     pg_addr = (void *)alloc_palacios_pgs(num_pages, alignment);
@@ -71,7 +156,7 @@ static void * palacios_allocate_pages(int num_pages, unsigned int alignment) {
  * a single call while palacios_free_page() only frees a single page.
  */
 
-static void palacios_free_pages(void * page_paddr, int num_pages) {
+void palacios_free_pages(void * page_paddr, int num_pages) {
     pg_frees += num_pages;
     free_palacios_pgs((uintptr_t)page_paddr, num_pages);
 }
@@ -81,20 +166,27 @@ static void palacios_free_pages(void * page_paddr, int num_pages) {
  * Allocates 'size' bytes of kernel memory.
  * Returns the kernel virtual address of the memory allocated.
  */
-static void *
+void *
 palacios_alloc(unsigned int size) {
     void * addr = NULL;
 
-    addr = kmalloc(size, GFP_KERNEL);
-    mallocs++;
+    if (irqs_disabled()) {
+       addr = kmalloc(size, GFP_ATOMIC);
+    } else {
+       addr = kmalloc(size, GFP_KERNEL);
+    }
+    
+    if (addr) { 
+       mallocs++;
+    }
+
     return addr;
 }
 
 /**
  * Frees memory that was previously allocated by palacios_alloc().
  */
-static void
+void
 palacios_free(
        void *                  addr
 )
@@ -107,7 +199,7 @@ palacios_free(
 /**
  * Converts a kernel virtual address to the corresponding physical address.
  */
-static void *
+void *
 palacios_vaddr_to_paddr(
        void *                  vaddr
 )
@@ -119,7 +211,7 @@ palacios_vaddr_to_paddr(
 /**
  * Converts a physical address to the corresponding kernel virtual address.
  */
-static void *
+void *
 palacios_paddr_to_vaddr(
        void *                  paddr
 )
@@ -130,8 +222,6 @@ palacios_paddr_to_vaddr(
 /**
  * Runs a function on the specified CPU.
  */
-
-// For now, do call only on local CPU 
 static void 
 palacios_xcall(
        int                     cpu_id, 
@@ -155,27 +245,32 @@ struct lnx_thread_arg {
 
 static int lnx_thread_target(void * arg) {
     struct lnx_thread_arg * thread_info = (struct lnx_thread_arg *)arg;
-
+    int ret = 0;
     /*
-      printk("Daemonizing new Palacios thread (name=%s)\n", thread_info->name);
+      INFO("Daemonizing new Palacios thread (name=%s)\n", thread_info->name);
 
       daemonize(thread_info->name);
       allow_signal(SIGKILL);
     */
 
 
-    thread_info->fn(thread_info->arg);
+    ret = thread_info->fn(thread_info->arg);
+
+
+    INFO("Palacios Thread (%s) EXITING\n", thread_info->name);
 
     kfree(thread_info);
     // handle cleanup 
+
+    do_exit(ret);
     
-    return 0;
+    return 0; // should not get here.
 }
 
 /**
  * Creates a kernel thread.
  */
-static void 
+void *
 palacios_start_kernel_thread(
        int (*fn)               (void * arg),
        void *                  arg,
@@ -187,15 +282,14 @@ palacios_start_kernel_thread(
     thread_info->arg = arg;
     thread_info->name = thread_name;
 
-    kthread_run( lnx_thread_target, thread_info, thread_name );
-    return;
+    return kthread_run( lnx_thread_target, thread_info, thread_name );
 }
 
 
 /**
  * Starts a kernel thread on the specified CPU.
  */
-static void * 
+void * 
 palacios_start_thread_on_cpu(int cpu_id, 
                             int (*fn)(void * arg), 
                             void * arg, 
@@ -211,20 +305,49 @@ palacios_start_thread_on_cpu(int cpu_id,
     thread = kthread_create( lnx_thread_target, thread_info, thread_name );
 
     if (IS_ERR(thread)) {
-       printk("Palacios error creating thread: %s\n", thread_name);
+       WARNING("Palacios error creating thread: %s\n", thread_name);
+       return NULL;
+    }
+
+    if (set_cpus_allowed_ptr(thread, cpumask_of(cpu_id)) != 0) {
+       kthread_stop(thread);
        return NULL;
     }
 
-    kthread_bind(thread, cpu_id);
     wake_up_process(thread);
 
     return thread;
 }
 
+
+/**
+ * Rebind a kernel thread to the specified CPU
+ * The thread will be running on target CPU on return
+ * non-zero return means failure
+ */
+int
+palacios_move_thread_to_cpu(int new_cpu_id, 
+                           void * thread_ptr) {
+    struct task_struct * thread = (struct task_struct *)thread_ptr;
+
+    INFO("Moving thread (%p) to cpu %d\n", thread, new_cpu_id);
+
+    if (thread == NULL) {
+       thread = current;
+    }
+
+    /*
+     * Bind to the specified CPU.  When this call returns,
+     * the thread should be running on the target CPU.
+     */
+    return set_cpus_allowed_ptr(thread, cpumask_of(new_cpu_id));
+}
+
+
 /**
  * Returns the CPU ID that the caller is running on.
  */
-static unsigned int 
+unsigned int 
 palacios_get_cpu(void) 
 {
 
@@ -290,16 +413,16 @@ palacios_dispatch_interrupt( int vector, void * dev, struct pt_regs * regs ) {
 static int
 palacios_hook_interrupt(struct v3_vm_info *    vm,
                        unsigned int            vector ) {
-    printk("hooking vector %d\n", vector);     
+    INFO("hooking vector %d\n", vector);       
 
     if (irq_to_guest_map[vector]) {
-       printk(KERN_WARNING
+       WARNING(
               "%s: Interrupt vector %u is already hooked.\n",
               __func__, vector);
        return -1;
     }
 
-    printk(KERN_DEBUG
+    DEBUG(
           "%s: Hooking interrupt vector %u to vm %p.\n",
           __func__, vector, vm);
 
@@ -322,7 +445,7 @@ palacios_hook_interrupt(struct v3_vm_info * vm,
        int flag = 0;
        int error;
                
-       printk("hooking vector: %d\n", vector);         
+       DEBUG("hooking vector: %d\n", vector);          
 
        if (vector == 32) {
            flag = IRQF_TIMER;
@@ -337,8 +460,8 @@ palacios_hook_interrupt(struct v3_vm_info * vm,
                            &device_id);
        
        if (error) {
-           printk("error code for request_irq is %d\n", error);
-           panic("request vector %d failed",vector);
+           ERROR("error code for request_irq is %d\n", error);
+           panic("request vector %d failed", vector);
        }
     }
        
@@ -356,20 +479,20 @@ palacios_ack_interrupt(
 ) 
 {
   ack_APIC_irq(); 
-  printk("Pretending to ack interrupt, vector=%d\n",vector);
+  DEBUG("Pretending to ack interrupt, vector=%d\n", vector);
   return 0;
 }
   
 /**
  * Returns the CPU frequency in kilohertz.
  */
-static unsigned int
+unsigned int
 palacios_get_cpu_khz(void) 
 {
-    printk("cpu_khz is %u\n",cpu_khz);
+    INFO("cpu_khz is %u\n", cpu_khz);
 
     if (cpu_khz == 0) { 
-       printk("faking cpu_khz to 1000000\n");
+       INFO("faking cpu_khz to 1000000\n");
        return 1000000;
     } else {
        return cpu_khz;
@@ -379,21 +502,40 @@ palacios_get_cpu_khz(void)
 
 /**
  * Yield the CPU so other host OS tasks can run.
+ * This will return immediately if there is no other thread that is runnable
+ * And there is no real bound on how long it will yield
  */
-static void
+void
 palacios_yield_cpu(void)
 {
     schedule();
     return;
 }
 
+/**
+ * Yield the CPU so other host OS tasks can run.
+ * Given now immediately if there is no other thread that is runnable
+ * And there is no real bound on how long it will yield
+ */
+void palacios_yield_cpu_timed(unsigned int us)
+{
+
+    unsigned int uspj = 1000000U/HZ;
+   
+    unsigned int jiffies = us/uspj + ((us%uspj) !=0);  // ceiling 
+
+    set_current_state(TASK_INTERRUPTIBLE);
+    
+    schedule_timeout(jiffies);
+
+}
 
 
 /**
  * Allocates a mutex.
  * Returns NULL on failure.
  */
-static void *
+void *
 palacios_mutex_alloc(void)
 {
     spinlock_t *lock = kmalloc(sizeof(spinlock_t), GFP_KERNEL);
@@ -408,7 +550,7 @@ palacios_mutex_alloc(void)
 /**
  * Frees a mutex.
  */
-static void
+void
 palacios_mutex_free(void * mutex) {
     kfree(mutex);
 }
@@ -416,15 +558,30 @@ palacios_mutex_free(void * mutex) {
 /**
  * Locks a mutex.
  */
-static void 
+void 
 palacios_mutex_lock(void * mutex, int must_spin) {
     spin_lock((spinlock_t *)mutex);
 }
 
+
+/**
+ * Locks a mutex, disabling interrupts on this core
+ */
+void *
+palacios_mutex_lock_irqsave(void * mutex, int must_spin) {
+    
+    unsigned long flags; 
+    
+    spin_lock_irqsave((spinlock_t *)mutex,flags);
+
+    return (void *)flags;
+}
+
+
 /**
  * Unlocks a mutex.
  */
-static void 
+void 
 palacios_mutex_unlock(
        void *                  mutex
 ) 
@@ -432,6 +589,17 @@ palacios_mutex_unlock(
     spin_unlock((spinlock_t *)mutex);
 }
 
+
+/**
+ * Unlocks a mutex.
+ */
+void 
+palacios_mutex_unlock_irqrestore(void *mutex, void *flags)
+{
+    // This is correct, flags is opaque
+    spin_unlock_irqrestore((spinlock_t *)mutex,(unsigned long)flags);
+}
+
 /**
  * Structure used by the Palacios hypervisor to interface with the host kernel.
  */
@@ -448,14 +616,18 @@ static struct v3_os_hooks palacios_os_hooks = {
        .get_cpu_khz            = palacios_get_cpu_khz,
        .start_kernel_thread    = palacios_start_kernel_thread,
        .yield_cpu              = palacios_yield_cpu,
+       .yield_cpu_timed        = palacios_yield_cpu_timed,
        .mutex_alloc            = palacios_mutex_alloc,
        .mutex_free             = palacios_mutex_free,
        .mutex_lock             = palacios_mutex_lock, 
        .mutex_unlock           = palacios_mutex_unlock,
+       .mutex_lock_irqsave     = palacios_mutex_lock_irqsave, 
+       .mutex_unlock_irqrestore= palacios_mutex_unlock_irqrestore,
        .get_cpu                = palacios_get_cpu,
        .interrupt_cpu          = palacios_interrupt_cpu,
        .call_on_cpu            = palacios_xcall,
        .start_thread_on_cpu    = palacios_start_thread_on_cpu,
+       .move_thread_to_cpu     = palacios_move_thread_to_cpu,
 };
 
 
@@ -463,12 +635,47 @@ static struct v3_os_hooks palacios_os_hooks = {
 
 int palacios_vmm_init( void )
 {
+    int num_cpus = num_online_cpus();
+    char * cpu_mask = NULL;
+
+    if (cpu_list_len > 0) {
+       int major = 0;
+       int minor = 0;
+       int i = 0;
+
+        cpu_mask = kmalloc((num_cpus / 8) + 1, GFP_KERNEL);
+
+       if (!cpu_mask) { 
+           ERROR("Cannot allocate cpu mask\n");
+           return -1;
+       }
+
+       memset(cpu_mask, 0, (num_cpus / 8) + 1);
+        
+        for (i = 0; i < cpu_list_len; i++) {
+           if (cpu_list[i] >= num_cpus) {
+               WARNING("CPU (%d) exceeds number of available CPUs. Ignoring...\n", cpu_list[i]);
+               continue;
+           }
+
+            major = cpu_list[i] / 8;
+            minor = cpu_list[i] % 8;
     
+            *(cpu_mask + major) |= (0x1 << minor);
+        }
+    }
+
     memset(irq_to_guest_map, 0, sizeof(struct v3_vm_info *) * 256);
-    
-    printk("palacios_init starting - calling init_v3\n");
-    
-    Init_V3(&palacios_os_hooks, nr_cpu_ids);
+
+    if (init_print_buffers()) {
+       ERROR("Cannot initialize print buffers\n");
+       kfree(cpu_mask);
+       return -1;
+    }
+
+    INFO("palacios_init starting - calling init_v3\n");
+
+    Init_V3(&palacios_os_hooks, cpu_mask, num_cpus);
 
     return 0;
 
@@ -479,5 +686,9 @@ int palacios_vmm_exit( void ) {
 
     Shutdown_V3();
 
+    INFO("palacios shutdown complete\n");
+
+    deinit_print_buffers();
+
     return 0;
 }