mei: dma ring: implement transmit flow
authorTomas Winkler <tomas.winkler@intel.com>
Thu, 22 Nov 2018 11:11:40 +0000 (13:11 +0200)
committerGreg Kroah-Hartman <gregkh@linuxfoundation.org>
Mon, 26 Nov 2018 15:59:48 +0000 (16:59 +0100)
Implement a circular buffer on allocated system memory. Read and write
indices are stored on the control block which is also shared between the
device and the host.
Two new functions are exported from the DMA module: mei_dma_ring_write,
and mei_dma_ring_empty_slots. The former simply copy a packet on the TX
DMA circular buffer and later, returns the number of empty slots on the
TX DMA circular buffer.

Signed-off-by: Tomas Winkler <tomas.winkler@intel.com>
Signed-off-by: Alexander Usyskin <alexander.usyskin@intel.com>
Signed-off-by: Greg Kroah-Hartman <gregkh@linuxfoundation.org>
drivers/misc/mei/client.c
drivers/misc/mei/dma-ring.c
drivers/misc/mei/mei_dev.h

index 5d15501af31329df09a9073ac12371670a702c62..1fc8ea0f519bb28d2c4e2640cda8caeddba55a75 100644 (file)
@@ -1558,10 +1558,13 @@ int mei_cl_irq_write(struct mei_cl *cl, struct mei_cl_cb *cb,
        struct mei_msg_hdr mei_hdr;
        size_t hdr_len = sizeof(mei_hdr);
        size_t len;
-       size_t hbuf_len;
+       size_t hbuf_len, dr_len;
        int hbuf_slots;
+       u32 dr_slots;
+       u32 dma_len;
        int rets;
        bool first_chunk;
+       const void *data;
 
        if (WARN_ON(!cl || !cl->dev))
                return -ENODEV;
@@ -1582,6 +1585,7 @@ int mei_cl_irq_write(struct mei_cl *cl, struct mei_cl_cb *cb,
        }
 
        len = buf->size - cb->buf_idx;
+       data = buf->data + cb->buf_idx;
        hbuf_slots = mei_hbuf_empty_slots(dev);
        if (hbuf_slots < 0) {
                rets = -EOVERFLOW;
@@ -1589,6 +1593,8 @@ int mei_cl_irq_write(struct mei_cl *cl, struct mei_cl_cb *cb,
        }
 
        hbuf_len = mei_slots2data(hbuf_slots);
+       dr_slots = mei_dma_ring_empty_slots(dev);
+       dr_len = mei_slots2data(dr_slots);
 
        mei_msg_hdr_init(&mei_hdr, cb);
 
@@ -1599,23 +1605,33 @@ int mei_cl_irq_write(struct mei_cl *cl, struct mei_cl_cb *cb,
        if (len + hdr_len <= hbuf_len) {
                mei_hdr.length = len;
                mei_hdr.msg_complete = 1;
+       } else if (dr_slots && hbuf_len >= hdr_len + sizeof(dma_len)) {
+               mei_hdr.dma_ring = 1;
+               if (len > dr_len)
+                       len = dr_len;
+               else
+                       mei_hdr.msg_complete = 1;
+
+               mei_hdr.length = sizeof(dma_len);
+               dma_len = len;
+               data = &dma_len;
        } else if ((u32)hbuf_slots == mei_hbuf_depth(dev)) {
-               mei_hdr.length = hbuf_len - hdr_len;
+               len = hbuf_len - hdr_len;
+               mei_hdr.length = len;
        } else {
                return 0;
        }
 
-       cl_dbg(dev, cl, "buf: size = %zu idx = %zu\n",
-                       cb->buf.size, cb->buf_idx);
+       if (mei_hdr.dma_ring)
+               mei_dma_ring_write(dev, buf->data + cb->buf_idx, len);
 
-       rets = mei_write_message(dev, &mei_hdr, hdr_len,
-                                buf->data + cb->buf_idx, mei_hdr.length);
+       rets = mei_write_message(dev, &mei_hdr, hdr_len, data, mei_hdr.length);
        if (rets)
                goto err;
 
        cl->status = 0;
        cl->writing_state = MEI_WRITING;
-       cb->buf_idx += mei_hdr.length;
+       cb->buf_idx += len;
 
        if (first_chunk) {
                if (mei_cl_tx_flow_ctrl_creds_reduce(cl)) {
@@ -1650,11 +1666,13 @@ ssize_t mei_cl_write(struct mei_cl *cl, struct mei_cl_cb *cb)
        struct mei_msg_data *buf;
        struct mei_msg_hdr mei_hdr;
        size_t hdr_len = sizeof(mei_hdr);
-       size_t len;
-       size_t hbuf_len;
+       size_t len, hbuf_len, dr_len;
        int hbuf_slots;
+       u32 dr_slots;
+       u32 dma_len;
        ssize_t rets;
        bool blocking;
+       const void *data;
 
        if (WARN_ON(!cl || !cl->dev))
                return -ENODEV;
@@ -1666,10 +1684,12 @@ ssize_t mei_cl_write(struct mei_cl *cl, struct mei_cl_cb *cb)
 
        buf = &cb->buf;
        len = buf->size;
-       blocking = cb->blocking;
 
        cl_dbg(dev, cl, "len=%zd\n", len);
 
+       blocking = cb->blocking;
+       data = buf->data;
+
        rets = pm_runtime_get(dev->dev);
        if (rets < 0 && rets != -EINPROGRESS) {
                pm_runtime_put_noidle(dev->dev);
@@ -1706,16 +1726,32 @@ ssize_t mei_cl_write(struct mei_cl *cl, struct mei_cl_cb *cb)
        }
 
        hbuf_len = mei_slots2data(hbuf_slots);
+       dr_slots = mei_dma_ring_empty_slots(dev);
+       dr_len =  mei_slots2data(dr_slots);
 
        if (len + hdr_len <= hbuf_len) {
                mei_hdr.length = len;
                mei_hdr.msg_complete = 1;
+       } else if (dr_slots && hbuf_len >= hdr_len + sizeof(dma_len)) {
+               mei_hdr.dma_ring = 1;
+               if (len > dr_len)
+                       len = dr_len;
+               else
+                       mei_hdr.msg_complete = 1;
+
+               mei_hdr.length = sizeof(dma_len);
+               dma_len = len;
+               data = &dma_len;
        } else {
-               mei_hdr.length = hbuf_len - hdr_len;
+               len = hbuf_len - hdr_len;
+               mei_hdr.length = len;
        }
 
+       if (mei_hdr.dma_ring)
+               mei_dma_ring_write(dev, buf->data, len);
+
        rets = mei_write_message(dev, &mei_hdr, hdr_len,
-                                buf->data, mei_hdr.length);
+                                data, mei_hdr.length);
        if (rets)
                goto err;
 
@@ -1724,7 +1760,9 @@ ssize_t mei_cl_write(struct mei_cl *cl, struct mei_cl_cb *cb)
                goto err;
 
        cl->writing_state = MEI_WRITING;
-       cb->buf_idx = mei_hdr.length;
+       cb->buf_idx = len;
+       /* restore return value */
+       len = buf->size;
 
 out:
        if (mei_hdr.msg_complete)
index a0c40925049a2287174c5ca69ad6aea02724dedf..795641b8218102ab1a7d8fa026f20cc8c7cacc8f 100644 (file)
@@ -138,6 +138,26 @@ static size_t mei_dma_copy_from(struct mei_device *dev, unsigned char *buf,
        return b_n;
 }
 
+/**
+ * mei_dma_copy_to() - copy to a buffer to the dma ring
+ * @dev: mei device
+ * @buf: data buffer
+ * @offset: offset in slots.
+ * @n: number of slots to copy.
+ */
+static size_t mei_dma_copy_to(struct mei_device *dev, unsigned char *buf,
+                             u32 offset, u32 n)
+{
+       unsigned char *hbuf = dev->dr_dscr[DMA_DSCR_HOST].vaddr;
+
+       size_t b_offset = offset << 2;
+       size_t b_n = n << 2;
+
+       memcpy(hbuf + b_offset, buf, b_n);
+
+       return b_n;
+}
+
 /**
  * mei_dma_ring_read() - read data from the ring
  * @dev: mei device
@@ -178,3 +198,72 @@ void mei_dma_ring_read(struct mei_device *dev, unsigned char *buf, u32 len)
 out:
        WRITE_ONCE(ctrl->dbuf_rd_idx, ctrl->dbuf_rd_idx + slots);
 }
+
+static inline u32 mei_dma_ring_hbuf_depth(struct mei_device *dev)
+{
+       return dev->dr_dscr[DMA_DSCR_HOST].size >> 2;
+}
+
+/**
+ * mei_dma_ring_empty_slots() - calaculate number of empty slots in dma ring
+ * @dev: mei_device
+ *
+ * Return: number of empty slots
+ */
+u32 mei_dma_ring_empty_slots(struct mei_device *dev)
+{
+       struct hbm_dma_ring_ctrl *ctrl = mei_dma_ring_ctrl(dev);
+       u32 wr_idx, rd_idx, hbuf_depth, empty;
+
+       if (!mei_dma_ring_is_allocated(dev))
+               return 0;
+
+       if (WARN_ON(!ctrl))
+               return 0;
+
+       /* easier to work in slots */
+       hbuf_depth = mei_dma_ring_hbuf_depth(dev);
+       rd_idx = READ_ONCE(ctrl->hbuf_rd_idx);
+       wr_idx = READ_ONCE(ctrl->hbuf_wr_idx);
+
+       if (rd_idx > wr_idx)
+               empty = rd_idx - wr_idx;
+       else
+               empty = hbuf_depth - (wr_idx - rd_idx);
+
+       return empty;
+}
+
+/**
+ * mei_dma_ring_write - write data to dma ring host buffer
+ *
+ * @dev: mei_device
+ * @buf: data will be written
+ * @len: data length
+ */
+void mei_dma_ring_write(struct mei_device *dev, unsigned char *buf, u32 len)
+{
+       struct hbm_dma_ring_ctrl *ctrl = mei_dma_ring_ctrl(dev);
+       u32 hbuf_depth;
+       u32 wr_idx, rem, slots;
+
+       if (WARN_ON(!ctrl))
+               return;
+
+       dev_dbg(dev->dev, "writing to dma %u bytes\n", len);
+       hbuf_depth = mei_dma_ring_hbuf_depth(dev);
+       wr_idx = READ_ONCE(ctrl->hbuf_wr_idx) & (hbuf_depth - 1);
+       slots = mei_data2slots(len);
+
+       if (wr_idx + slots > hbuf_depth) {
+               buf += mei_dma_copy_to(dev, buf, wr_idx, hbuf_depth - wr_idx);
+               rem = slots - (hbuf_depth - wr_idx);
+               wr_idx = 0;
+       } else {
+               rem = slots;
+       }
+
+       mei_dma_copy_to(dev, buf, wr_idx, rem);
+
+       WRITE_ONCE(ctrl->hbuf_wr_idx, ctrl->hbuf_wr_idx + slots);
+}
index bfd181fbd90cea61d8118195c6185044f9b6586c..685b78ce30a54c0c3a75d7d4c98af3e1536ee250 100644 (file)
@@ -599,6 +599,8 @@ void mei_dmam_ring_free(struct mei_device *dev);
 bool mei_dma_ring_is_allocated(struct mei_device *dev);
 void mei_dma_ring_reset(struct mei_device *dev);
 void mei_dma_ring_read(struct mei_device *dev, unsigned char *buf, u32 len);
+void mei_dma_ring_write(struct mei_device *dev, unsigned char *buf, u32 len);
+u32 mei_dma_ring_empty_slots(struct mei_device *dev);
 
 /*
  *  MEI interrupt functions prototype