Fix spelling errors in Server Message Block
authorXiaxi Shen <shenxiaxi26@gmail.com>
Wed, 7 Aug 2024 16:53:20 +0000 (09:53 -0700)
committerSteve French <stfrench@microsoft.com>
Thu, 8 Aug 2024 16:15:33 +0000 (11:15 -0500)
Fixed typos in various files under fs/smb/client/

Signed-off-by: Xiaxi Shen <shenxiaxi26@gmail.com>
Signed-off-by: Steve French <stfrench@microsoft.com>
fs/smb/client/cifsglob.h
fs/smb/client/misc.c
fs/smb/client/smbdirect.c
fs/smb/client/transport.c

index b9f46d29a44111bf62d39f9785af535be686f45f..5c9b3e6cd95f201e16a4d08679aee00686fa19c8 100644 (file)
@@ -345,7 +345,7 @@ struct smb_version_operations {
        /* connect to a server share */
        int (*tree_connect)(const unsigned int, struct cifs_ses *, const char *,
                            struct cifs_tcon *, const struct nls_table *);
-       /* close tree connecion */
+       /* close tree connection */
        int (*tree_disconnect)(const unsigned int, struct cifs_tcon *);
        /* get DFS referrals */
        int (*get_dfs_refer)(const unsigned int, struct cifs_ses *,
@@ -816,7 +816,7 @@ struct TCP_Server_Info {
         * Protected by @refpath_lock and @srv_lock.  The @refpath_lock is
         * mostly used for not requiring a copy of @leaf_fullpath when getting
         * cached or new DFS referrals (which might also sleep during I/O).
-        * While @srv_lock is held for making string and NULL comparions against
+        * While @srv_lock is held for making string and NULL comparisons against
         * both fields as in mount(2) and cache refresh.
         *
         * format: \\HOST\SHARE[\OPTIONAL PATH]
index b28ff62f1f1516d8e80859846a463e5a06f3ec62..3fe5bfc389d00aaf79c43435426040266e229043 100644 (file)
@@ -352,7 +352,7 @@ checkSMB(char *buf, unsigned int total_read, struct TCP_Server_Info *server)
                                 * on simple responses (wct, bcc both zero)
                                 * in particular have seen this on
                                 * ulogoffX and FindClose. This leaves
-                                * one byte of bcc potentially unitialized
+                                * one byte of bcc potentially uninitialized
                                 */
                                /* zero rest of bcc */
                                tmp[sizeof(struct smb_hdr)+1] = 0;
index d74e829de51c225a94f8221f03712f9826c030d7..7bcc379014cadd4e20415b6a06914e3ad33744f8 100644 (file)
@@ -406,7 +406,7 @@ static void smbd_post_send_credits(struct work_struct *work)
                        else
                                response = get_empty_queue_buffer(info);
                        if (!response) {
-                               /* now switch to emtpy packet queue */
+                               /* now switch to empty packet queue */
                                if (use_receive_queue) {
                                        use_receive_queue = 0;
                                        continue;
@@ -618,7 +618,7 @@ out:
 
 /*
  * Test if FRWR (Fast Registration Work Requests) is supported on the device
- * This implementation requries FRWR on RDMA read/write
+ * This implementation requires FRWR on RDMA read/write
  * return value: true if it is supported
  */
 static bool frwr_is_supported(struct ib_device_attr *attrs)
@@ -2177,7 +2177,7 @@ cleanup_entries:
  * MR available in the list. It may access the list while the
  * smbd_mr_recovery_work is recovering the MR list. This doesn't need a lock
  * as they never modify the same places. However, there may be several CPUs
- * issueing I/O trying to get MR at the same time, mr_list_lock is used to
+ * issuing I/O trying to get MR at the same time, mr_list_lock is used to
  * protect this situation.
  */
 static struct smbd_mr *get_mr(struct smbd_connection *info)
@@ -2311,7 +2311,7 @@ struct smbd_mr *smbd_register_mr(struct smbd_connection *info,
        /*
         * There is no need for waiting for complemtion on ib_post_send
         * on IB_WR_REG_MR. Hardware enforces a barrier and order of execution
-        * on the next ib_post_send when we actaully send I/O to remote peer
+        * on the next ib_post_send when we actually send I/O to remote peer
         */
        rc = ib_post_send(info->id->qp, &reg_wr->wr, NULL);
        if (!rc)
index adfe0d05870108ab639f6cf8d5760d6f525146b6..6e68aaf5bd20357e35b0aa090ca75acc9f3b4017 100644 (file)
@@ -1289,7 +1289,7 @@ compound_send_recv(const unsigned int xid, struct cifs_ses *ses,
 out:
        /*
         * This will dequeue all mids. After this it is important that the
-        * demultiplex_thread will not process any of these mids any futher.
+        * demultiplex_thread will not process any of these mids any further.
         * This is prevented above by using a noop callback that will not
         * wake this thread except for the very last PDU.
         */