Palacios Public Git Repository

To checkout Palacios execute

  git clone http://v3vee.org/palacios/palacios.web/palacios.git
This will give you the master branch. You probably want the devel branch or one of the release branches. To switch to the devel branch, simply execute
  cd palacios
  git checkout --track -b devel origin/devel
The other branches are similar.


add the virtual console input as a host event
[palacios.git] / palacios / src / devices / lnx_virtio_vnet.c
index fe305c1..c35250d 100644 (file)
@@ -8,10 +8,12 @@
  * http://www.v3vee.org
  *
  * Copyright (c) 2008, Jack Lange <jarusl@cs.northwestern.edu>
+ * Copyright (c) 2008, Lei Xia <lxia@cs.northwestern.edu>
  * Copyright (c) 2008, The V3VEE Project <http://www.v3vee.org> 
  * All rights reserved.
  *
  * Author: Jack Lange <jarusl@cs.northwestern.edu>
+ *             Lei Xia <lxia@cs.northwestern.edu>
  *
  * This is free software.  You are permitted to use,
  * redistribute, and modify it as specified in the file "V3VEE_LICENSE".
 #include <devices/pci.h>
 
 
-#ifndef CONFIG_LINUX_VIRTIO_VNET_DEBUG
+#ifndef CONFIG_DEBUG_LINUX_VIRTIO_VNET
 #undef PrintDebug
 #define PrintDebug(fmt, args...)
 #endif
 
 
-#define QUEUE_SIZE 128
+#define QUEUE_SIZE 4096
+#define CMD_QUEUE_SIZE 128
 #define NUM_QUEUES 3
 
 struct vnet_config {
@@ -59,6 +62,9 @@ struct virtio_vnet_state {
 
     int io_range_size;
     v3_lock_t lock;
+
+    ulong_t pkt_sent, pkt_recv, pkt_drop, tx_exit, rx_exit, total_exit;
+    int ready;
 };
 
 #define VNET_GET_ROUTES 10
@@ -76,22 +82,23 @@ struct vnet_ctrl_hdr {
 } __attribute__((packed));
 
 
-struct vnet_virtio_pkt {
+struct vnet_bridge_pkt {
     uint32_t link_id;
     uint32_t pkt_size;
-    uint8_t pkt[1500];
-};
+    uint8_t pkt[ETHERNET_PACKET_LEN];
+}__attribute__((packed));
+
 
 static int virtio_reset(struct virtio_vnet_state * vnet_state) {
 
-    memset(vnet_state->queue, 0, sizeof(struct virtio_queue) * 2);
+    memset(vnet_state->queue, 0, sizeof(struct virtio_queue) * NUM_QUEUES);
 
     vnet_state->cur_queue = &(vnet_state->queue[0]);
 
     vnet_state->virtio_cfg.status = 0;
     vnet_state->virtio_cfg.pci_isr = 0;
 
-    vnet_state->queue[0].queue_size = QUEUE_SIZE;
+    vnet_state->queue[0].queue_size = CMD_QUEUE_SIZE;
     vnet_state->queue[1].queue_size = QUEUE_SIZE;
     vnet_state->queue[2].queue_size = QUEUE_SIZE;
 
@@ -136,7 +143,7 @@ static int handle_cmd_kick(struct guest_info * core, struct virtio_vnet_state *
        uint8_t status = 0;
 
 
-       PrintDebug("Descriptor Count=%d, index=%d, desc_idx=%d\n", desc_cnt, q->cur_avail_idx % QUEUE_SIZE, desc_idx);
+       PrintDebug("VNET Bridge: CMD: Descriptor Count=%d, index=%d, desc_idx=%d\n", desc_cnt, q->cur_avail_idx % QUEUE_SIZE, desc_idx);
 
        if (desc_cnt < 3) {
            PrintError("VNET Bridge cmd must include at least 3 descriptors (cnt=%d)\n", desc_cnt);
@@ -145,7 +152,7 @@ static int handle_cmd_kick(struct guest_info * core, struct virtio_vnet_state *
        
        hdr_desc = &(q->desc[desc_idx]);
 
-       if (guest_pa_to_host_va(core, hdr_desc->addr_gpa, (addr_t *)&hdr) == -1) {
+       if (v3_gpa_to_hva(core, hdr_desc->addr_gpa, (addr_t *)&hdr) == -1) {
            PrintError("Could not translate VirtioVNET header address\n");
            return -1;
        }
@@ -160,13 +167,13 @@ static int handle_cmd_kick(struct guest_info * core, struct virtio_vnet_state *
                
                buf_desc = &(q->desc[desc_idx]);
 
-               if (guest_pa_to_host_va(core, buf_desc->addr_gpa, (addr_t *)&(route)) == -1) {
+               if (v3_gpa_to_hva(core, buf_desc->addr_gpa, (addr_t *)&(route)) == -1) {
                    PrintError("Could not translate route address\n");
                    return -1;
                }
 
                // add route
-               PrintDebug("Adding VNET Route\n");
+               PrintDebug("VNET Bridge: Adding VNET Route\n");
 
                tmp_status = v3_vnet_add_route(*route);
 
@@ -187,7 +194,7 @@ static int handle_cmd_kick(struct guest_info * core, struct virtio_vnet_state *
 
        status_desc = &(q->desc[desc_idx]);
 
-       if (guest_pa_to_host_va(core, status_desc->addr_gpa, (addr_t *)&status_ptr) == -1) {
+       if (v3_gpa_to_hva(core, status_desc->addr_gpa, (addr_t *)&status_ptr) == -1) {
            PrintError("VirtioVNET Error could not translate status address\n");
            return -1;
        }
@@ -215,49 +222,47 @@ static int handle_cmd_kick(struct guest_info * core, struct virtio_vnet_state *
 }
 
 
-static int vnet_pkt_input_cb(struct v3_vm_info * vm,  struct v3_vnet_pkt * pkt,  void * private_data){
+static int vnet_pkt_input_cb(struct v3_vm_info * vm,  struct v3_vnet_pkt *pkt, void * private_data){
     struct virtio_vnet_state * vnet_state = (struct virtio_vnet_state *)private_data;
     struct virtio_queue * q = &(vnet_state->queue[RECV_QUEUE]);
     int ret_val = -1;
     unsigned long flags;
+    uint16_t sent;
 
     flags = v3_lock_irqsave(vnet_state->lock);
        
-    PrintDebug("VNET Bridge: RX: pkt sent to guest size: %d\n, pkt_header_len: %d\n", data_len, pkt_head_len);
-
     if (q->ring_avail_addr == 0) {
        PrintError("Queue is not set\n");
        goto exit;
     }
 
-
     if (q->cur_avail_idx != q->avail->index) {
        uint16_t pkt_idx = q->avail->ring[q->cur_avail_idx % q->queue_size];
        struct vring_desc * pkt_desc = NULL;
-       struct vnet_virtio_pkt * virtio_pkt = NULL;
-
+       struct vnet_bridge_pkt * virtio_pkt = NULL;
 
        pkt_desc = &(q->desc[pkt_idx]);
        PrintDebug("VNET Bridge RX: buffer desc len: %d\n", pkt_desc->length);
 
-       if (guest_pa_to_host_va(&(vm->cores[0]), pkt_desc->addr_gpa, (addr_t *)&(virtio_pkt)) == -1) {
+       if (v3_gpa_to_hva(&(vm->cores[0]), pkt_desc->addr_gpa, (addr_t *)&(virtio_pkt)) == -1) {
            PrintError("Could not translate buffer address\n");
-           return -1;
+           goto exit;
        }
 
+       PrintDebug("VNET Bridge: RX: pkt sent to guest pkt size: %d, dst link: %d\n", pkt->size, pkt->dst_id);
+
        // Fill in dst packet buffer
        virtio_pkt->link_id = pkt->dst_id;
        virtio_pkt->pkt_size = pkt->size;
        memcpy(virtio_pkt->pkt, pkt->data, pkt->size);
-
        
        q->used->ring[q->used->index % q->queue_size].id = q->avail->ring[q->cur_avail_idx % q->queue_size];
-       q->used->ring[q->used->index % q->queue_size].length = sizeof(struct vnet_virtio_pkt); // This should be the total length of data sent to guest (header+pkt_data)
+       q->used->ring[q->used->index % q->queue_size].length = sizeof(struct vnet_bridge_pkt); 
 
        q->used->index++;
        q->cur_avail_idx++;
     } else {
-       PrintError("Packet buffer overflow in the guest\n");
+       vnet_state->pkt_drop ++;
     }
 
     if (!(q->avail->flags & VIRTIO_NO_IRQ_FLAG)) {
@@ -266,76 +271,105 @@ static int vnet_pkt_input_cb(struct v3_vm_info * vm,  struct v3_vnet_pkt * pkt,
        PrintDebug("Raising IRQ %d\n",  vnet_state->pci_dev->config_header.intr_line);
     }
 
-
     ret_val = 0;
-
+       
 exit:
+
     v3_unlock_irqrestore(vnet_state->lock, flags);
  
     return ret_val;
 }
 
+static int vnet_pkt_input_xcall(void *data){
+    struct v3_vnet_bridge_xcall_args *args = (struct v3_vnet_bridge_xcall_args *)data;
+    int i = 0;
+
+    for(i = 0; i < args->pkt_num; i++) {
+       vnet_pkt_input_cb(args->vm, args->vnet_pkts[i], args->private_data);
+    }
+       
+    return 0;
+}
 
 static int handle_pkt_kick(struct guest_info *core, struct virtio_vnet_state * vnet_state) 
 {
     struct virtio_queue * q = &(vnet_state->queue[XMIT_QUEUE]);
-
-    PrintDebug("VNET Bridge Device: Handle TX\n");
+    int recvd = 0;
+       
+    if (q->ring_avail_addr == 0) {
+       return -1;
+    }
 
     while (q->cur_avail_idx != q->avail->index) {
        uint16_t desc_idx = q->avail->ring[q->cur_avail_idx % q->queue_size];
        struct vring_desc * pkt_desc = NULL;
-       struct vnet_virtio_pkt * virtio_pkt = NULL;
+       struct vnet_bridge_pkt * virtio_pkt = NULL;
 
        pkt_desc = &(q->desc[desc_idx]);
 
-       PrintDebug("VNET Bridge: Handle TX buf_len: %d\n", pkt_desc->length);
-
-       if (guest_pa_to_host_va(core, pkt_desc->addr_gpa, (addr_t *)&(virtio_pkt)) == -1) {
+       PrintDebug("VNET Bridge: Handle TX desc buf_len: %d\n", pkt_desc->length);
+       
+       if (v3_gpa_to_hva(core, pkt_desc->addr_gpa, (addr_t *)&(virtio_pkt)) == -1) {
            PrintError("Could not translate buffer address\n");
            return -1;
        }
 
-       //TODO:  SETUP VNET PACKET data structure
+       //PrintDebug("VNET Bridge: TX: on cpu %d pkt size: %d, dst link: %d\n", cpu, virtio_pkt->pkt_size, virtio_pkt->link_id);
 
-       /*
-         if (v3_vnet_send_pkt(pkt, (void *)core) == -1) {
-           PrintError("Error sending packet to vnet\n");
-           return -1;
-       }       
-       */
+       struct v3_vnet_pkt pkt;
+       pkt.size = virtio_pkt->pkt_size;
+       pkt.src_type = LINK_EDGE;
+       pkt.src_id = 0;
+       memcpy(pkt.header, virtio_pkt->pkt, ETHERNET_HEADER_LEN);
+       pkt.data = virtio_pkt->pkt;
+
+       v3_vnet_send_pkt(&pkt, NULL);
+       
        q->used->ring[q->used->index % q->queue_size].id = q->avail->ring[q->cur_avail_idx % q->queue_size];
        q->used->ring[q->used->index % q->queue_size].length = pkt_desc->length; // What do we set this to????
        q->used->index++;
 
+       vnet_state->pkt_sent ++;
+       recvd ++;
+
        q->cur_avail_idx++;
     }
 
+    if(recvd == 0){
+       return 0;
+    }
+
     if (!(q->avail->flags & VIRTIO_NO_IRQ_FLAG)) {
-       v3_pci_raise_irq(vnet_state->pci_bus, 0, vnet_state->pci_dev);
-       vnet_state->virtio_cfg.pci_isr = 0x1;
+           v3_pci_raise_irq(vnet_state->pci_bus, 0, vnet_state->pci_dev);
+           vnet_state->virtio_cfg.pci_isr = 0x1;
     }
+       
+    return 0;
+}
 
-#ifdef CONFIG_VNET_PROFILE
-    uint64_t time;
-    rdtscll(time);
-    core->vnet_times.total_handle_time = time - core->vnet_times.virtio_handle_start;
-    core->vnet_times.print = true;
-#endif
+static void vnet_virtio_poll(struct v3_vm_info * vm, void *private_data){
+    struct virtio_vnet_state * vnet_state = (struct virtio_vnet_state *)private_data;
 
+    if(vm == vnet_state->vm){  
+       handle_pkt_kick(&(vm->cores[0]), vnet_state);
+    }
+}
+
+static int handle_rx_kick(struct guest_info *core, struct virtio_vnet_state * vnet_state) 
+{
+    //v3_vnet_enable_bridge();
+       
     return 0;
 }
 
-static int virtio_io_write(struct guest_info * core, uint16_t port, void * src, uint_t length, void * private_data) {
+static int vnet_virtio_io_write(struct guest_info * core, uint16_t port, void * src, uint_t length, void * private_data) {
     struct virtio_vnet_state * vnet_state = (struct virtio_vnet_state *)private_data;
     int port_idx = port % vnet_state->io_range_size;
 
-
     PrintDebug("VNET Bridge: VIRTIO VNET Write for port %d len=%d, value=%x\n", 
               port, length, *(uint32_t *)src);
-    PrintDebug("VNET Bridge: port idx=%d\n", port_idx);
-
 
+    vnet_state->total_exit ++;
     switch (port_idx) {
        case GUEST_FEATURES_PORT:
            if (length != 4) {
@@ -361,17 +395,17 @@ static int virtio_io_write(struct guest_info * core, uint16_t port, void * src,
                // round up to next page boundary.
                vnet_state->cur_queue->ring_used_addr = (vnet_state->cur_queue->ring_used_addr + 0xfff) & ~0xfff;
 
-               if (guest_pa_to_host_va(core, vnet_state->cur_queue->ring_desc_addr, (addr_t *)&(vnet_state->cur_queue->desc)) == -1) {
+               if (v3_gpa_to_hva(core, vnet_state->cur_queue->ring_desc_addr, (addr_t *)&(vnet_state->cur_queue->desc)) == -1) {
                    PrintError("Could not translate ring descriptor address\n");
                    return -1;
                }
 
-               if (guest_pa_to_host_va(core, vnet_state->cur_queue->ring_avail_addr, (addr_t *)&(vnet_state->cur_queue->avail)) == -1) {
+               if (v3_gpa_to_hva(core, vnet_state->cur_queue->ring_avail_addr, (addr_t *)&(vnet_state->cur_queue->avail)) == -1) {
                    PrintError("Could not translate ring available address\n");
                    return -1;
                }
 
-               if (guest_pa_to_host_va(core, vnet_state->cur_queue->ring_used_addr, (addr_t *)&(vnet_state->cur_queue->used)) == -1) {
+               if (v3_gpa_to_hva(core, vnet_state->cur_queue->ring_used_addr, (addr_t *)&(vnet_state->cur_queue->used)) == -1) {
                    PrintError("Could not translate ring used address\n");
                    return -1;
                }
@@ -384,6 +418,16 @@ static int virtio_io_write(struct guest_info * core, uint16_t port, void * src,
                PrintDebug("VNET Bridge: RingDesc=%p, Avail=%p, Used=%p\n", 
                           vnet_state->cur_queue->desc, vnet_state->cur_queue->avail, vnet_state->cur_queue->used);
 
+               if(vnet_state->queue[RECV_QUEUE].avail != NULL){
+                   vnet_state->ready = 1;
+                   vnet_state->queue[RECV_QUEUE].used->flags |= VRING_NO_NOTIFY_FLAG;
+               }
+
+               //No notify when there is pkt tx from guest
+               //palacios will do the polling
+               if(vnet_state->queue[XMIT_QUEUE].used != NULL){
+                   vnet_state->queue[XMIT_QUEUE].used->flags |= VRING_NO_NOTIFY_FLAG;
+               }
            } else {
                PrintError("Illegal write length for page frame number\n");
                return -1;
@@ -416,8 +460,13 @@ static int virtio_io_write(struct guest_info * core, uint16_t port, void * src,
                    PrintError("Could not handle Virtio VNET TX\n");
                    return -1;
                }
+               PrintError("Notify on TX\n");
            } else if (queue_idx == 2) {
-               PrintDebug("VNET Bridge: receive kick on RX Queue\n");
+               if (handle_rx_kick(core, vnet_state) == -1){
+                   PrintError("Could not handle Virtio RX buffer refills Kick\n");
+                   return -1;
+               }
+               vnet_state->rx_exit ++;
            } else {
                PrintError("VNET Bridge: Kick on invalid queue (%d)\n", queue_idx);
                return -1;
@@ -447,15 +496,11 @@ static int virtio_io_write(struct guest_info * core, uint16_t port, void * src,
 }
 
 
-static int virtio_io_read(struct guest_info * core, uint16_t port, void * dst, uint_t length, void * private_data) {
+static int vnet_virtio_io_read(struct guest_info * core, uint16_t port, void * dst, uint_t length, void * private_data) {
 
     struct virtio_vnet_state * vnet_state = (struct virtio_vnet_state *)private_data;
     int port_idx = port % vnet_state->io_range_size;
 
-/*
-    PrintDebug("VirtioVNET: VIRTIO SYMBIOTIC Read  for port %d (index =%d), length=%d\n", 
-              port, port_idx, length);
-*/
     switch (port_idx) {
        case HOST_FEATURES_PORT:
            if (length != 4) {
@@ -528,7 +573,6 @@ static struct v3_device_ops dev_ops = {
     .stop = NULL,
 };
 
-
 static int dev_init(struct v3_vm_info * vm, v3_cfg_tree_t * cfg) {
     struct vm_device * pci_bus = v3_find_dev(vm, v3_cfg_val(cfg, "bus"));
     struct virtio_vnet_state * vnet_state = NULL;
@@ -583,12 +627,12 @@ static int dev_init(struct v3_vm_info * vm, v3_cfg_tree_t * cfg) {
        bars[0].type = PCI_BAR_IO;
        bars[0].default_base_port = -1;
        bars[0].num_ports = vnet_state->io_range_size;
-       bars[0].io_read = virtio_io_read;
-       bars[0].io_write = virtio_io_write;
+       bars[0].io_read = vnet_virtio_io_read;
+       bars[0].io_write = vnet_virtio_io_write;
        bars[0].private_data = vnet_state;
 
        pci_dev = v3_pci_register_device(pci_bus, PCI_STD_DEVICE, 
-                                        0, PCI_AUTO_DEV_NUM, 0,
+                                        0, 5 /*PCI_AUTO_DEV_NUM*/, 0,
                                         "LNX_VIRTIO_VNET", bars,
                                         NULL, NULL, NULL, vnet_state);
 
@@ -613,7 +657,13 @@ static int dev_init(struct v3_vm_info * vm, v3_cfg_tree_t * cfg) {
 
     virtio_reset(vnet_state);
 
-    v3_vnet_add_bridge(vm, vnet_pkt_input_cb, (void *)vnet_state);
+    struct v3_vnet_bridge_ops brg_ops;
+    brg_ops.input = vnet_pkt_input_cb;
+    brg_ops.polling_pkt = vnet_virtio_poll;
+    brg_ops.xcall_input = vnet_pkt_input_xcall;
+
+    V3_Print("Registering Virtio device as vnet bridge\n");
+    v3_vnet_add_bridge(vm, &brg_ops, (void *)vnet_state);
 
     return 0;
 }